Πείτε στο γατάκι σας τι σκέφτεστε μέσα σας - το εφέ μαύρου κουτιού
Τεχνολογία

Πείτε στο γατάκι σας τι σκέφτεστε μέσα σας - το εφέ μαύρου κουτιού

Το γεγονός ότι οι προηγμένοι αλγόριθμοι τεχνητής νοημοσύνης είναι σαν ένα μαύρο κουτί (1) που πετάει ένα αποτέλεσμα χωρίς να αποκαλύπτει πώς προέκυψε, κάποιους ανησυχεί και άλλους.

Το 2015, ζητήθηκε από μια ερευνητική ομάδα στο νοσοκομείο Mount Sinai στη Νέα Υόρκη να χρησιμοποιήσει αυτή τη μέθοδο για να αναλύσει μια εκτενή βάση δεδομένων τοπικών ασθενών (2). Αυτή η τεράστια συλλογή περιέχει έναν ωκεανό από πληροφορίες ασθενών, αποτελέσματα εξετάσεων, συνταγές γιατρού και πολλά άλλα.

Οι επιστήμονες κάλεσαν το αναλυτικό πρόγραμμα που αναπτύχθηκε κατά τη διάρκεια της εργασίας. Εκπαιδεύτηκε σε δεδομένα από περίπου 700 άτομα. ανθρώπινο, και όταν δοκιμάστηκε σε νέα μητρώα, έχει αποδειχθεί εξαιρετικά αποτελεσματικό στην πρόβλεψη ασθενειών. Χωρίς τη βοήθεια ανθρώπινων ειδικών, ανακάλυψε μοτίβα στα νοσοκομειακά αρχεία που δείχνουν ποιος ασθενής βρίσκεται στο δρόμο για μια ασθένεια, όπως ο καρκίνος του ήπατος. Σύμφωνα με τους ειδικούς, η προγνωστική και διαγνωστική αποτελεσματικότητα του συστήματος ήταν πολύ υψηλότερη από κάθε άλλη γνωστή μέθοδο.

2. Σύστημα ιατρικής τεχνητής νοημοσύνης που βασίζεται σε βάσεις δεδομένων ασθενών

Την ίδια στιγμή, οι ερευνητές παρατήρησαν ότι λειτουργεί με μυστηριώδη τρόπο. Αποδείχθηκε, για παράδειγμα, ότι είναι ιδανικό για αναγνώριση ψυχικών διαταραχώνόπως η σχιζοφρένεια, που είναι εξαιρετικά δύσκολη για τους γιατρούς. Αυτό ήταν εκπληκτικό, ειδικά αφού κανείς δεν είχε ιδέα πώς το σύστημα AI μπορούσε να δει τόσο καλά την ψυχική ασθένεια με βάση μόνο τα ιατρικά αρχεία του ασθενούς. Ναι, οι ειδικοί ήταν πολύ ευχαριστημένοι με τη βοήθεια ενός τόσο αποτελεσματικού διαγνωστικού μηχανήματος, αλλά θα ήταν πολύ πιο ικανοποιημένοι αν καταλάβαιναν πώς το AI καταλήγει στα συμπεράσματά του.

Στρώματα τεχνητών νευρώνων

Από την αρχή, δηλαδή από τη στιγμή που έγινε γνωστή η έννοια της τεχνητής νοημοσύνης, υπήρχαν δύο απόψεις για την τεχνητή νοημοσύνη. Ο πρώτος πρότεινε ότι θα ήταν πιο λογικό να κατασκευάζονται μηχανές που συλλογίζονται σύμφωνα με γνωστές αρχές και ανθρώπινη λογική, καθιστώντας την εσωτερική τους λειτουργία διαφανή σε όλους. Άλλοι πίστευαν ότι η νοημοσύνη θα αναδυόταν πιο εύκολα εάν οι μηχανές μάθαιναν μέσω της παρατήρησης και του επαναλαμβανόμενου πειραματισμού.

Το τελευταίο σημαίνει αντιστροφή του τυπικού προγραμματισμού υπολογιστών. Αντί ο προγραμματιστής να γράφει εντολές για να λύσει ένα πρόβλημα, το πρόγραμμα δημιουργεί δικό του αλγόριθμο με βάση τα δείγματα δεδομένων και το επιθυμητό αποτέλεσμα. Οι μέθοδοι μηχανικής μάθησης που αργότερα εξελίχθηκαν στα πιο ισχυρά συστήματα τεχνητής νοημοσύνης που είναι γνωστά σήμερα έχουν μόλις ακολουθήσει το μονοπάτι, στην πραγματικότητα, το ίδιο το μηχάνημα προγραμματίζει.

Αυτή η προσέγγιση παρέμεινε στο περιθώριο της έρευνας συστημάτων τεχνητής νοημοσύνης στις δεκαετίες του '60 και του '70. Μόλις στις αρχές της προηγούμενης δεκαετίας, μετά από κάποιες πρωτοποριακές αλλαγές και βελτιώσεις, «Βαθιά» νευρωνικά δίκτυα άρχισε να επιδεικνύει ριζική βελτίωση στις δυνατότητες της αυτοματοποιημένης αντίληψης. 

Η βαθιά μηχανική μάθηση έχει προικίσει τους υπολογιστές με εξαιρετικές ικανότητες, όπως η ικανότητα να αναγνωρίζουν προφορικές λέξεις σχεδόν με την ίδια ακρίβεια με τον άνθρωπο. Αυτή είναι μια πολύ περίπλοκη δεξιότητα για να προγραμματιστεί εκ των προτέρων. Το μηχάνημα πρέπει να μπορεί να δημιουργήσει το δικό του «πρόγραμμα» από εκπαίδευση σε τεράστια σύνολα δεδομένων.

Η βαθιά εκμάθηση άλλαξε επίσης την αναγνώριση εικόνων στον υπολογιστή και βελτίωσε σημαντικά την ποιότητα της μηχανικής μετάφρασης. Σήμερα, χρησιμοποιείται για τη λήψη όλων των ειδών βασικών αποφάσεων στην ιατρική, τη χρηματοδότηση, τη μεταποίηση και πολλά άλλα.

Ωστόσο, με όλα αυτά δεν μπορείτε απλώς να κοιτάξετε μέσα σε ένα βαθύ νευρωνικό δίκτυο για να δείτε πώς λειτουργεί το "μέσα". Οι διαδικασίες συλλογιστικής δικτύου είναι ενσωματωμένες στη συμπεριφορά χιλιάδων προσομοιωμένων νευρώνων, οργανωμένων σε δεκάδες ή και εκατοντάδες περίπλοκα διασυνδεδεμένα επίπεδα..

Καθένας από τους νευρώνες στο πρώτο στρώμα λαμβάνει μια είσοδο, όπως η ένταση ενός εικονοστοιχείου σε μια εικόνα, και στη συνέχεια εκτελεί υπολογισμούς πριν από την έξοδο της εξόδου. Μεταδίδονται σε ένα πολύπλοκο δίκτυο στους νευρώνες του επόμενου στρώματος - και ούτω καθεξής, μέχρι το τελικό σήμα εξόδου. Επιπλέον, υπάρχει μια διαδικασία γνωστή ως προσαρμογή των υπολογισμών που εκτελούνται από μεμονωμένους νευρώνες έτσι ώστε το δίκτυο εκπαίδευσης να παράγει το επιθυμητό αποτέλεσμα.

Σε ένα συχνά αναφερόμενο παράδειγμα που σχετίζεται με την αναγνώριση εικόνας σκύλου, τα χαμηλότερα επίπεδα τεχνητής νοημοσύνης αναλύουν απλά χαρακτηριστικά όπως το σχήμα ή το χρώμα. Οι ανώτεροι ασχολούνται με πιο περίπλοκα ζητήματα όπως η γούνα ή τα μάτια. Μόνο το ανώτερο στρώμα τα συγκεντρώνει όλα, προσδιορίζοντας το πλήρες σύνολο πληροφοριών ως σκύλο.

Η ίδια προσέγγιση μπορεί να εφαρμοστεί και σε άλλους τύπους εισόδου που εξουσιοδοτούν το μηχάνημα να μάθει τον εαυτό του: ήχους που συνθέτουν λέξεις στην ομιλία, γράμματα και λέξεις που συνθέτουν προτάσεις σε γραπτό κείμενο ή ένα τιμόνι, για παράδειγμα. κινήσεις απαραίτητες για την οδήγηση ενός οχήματος.

Το αυτοκίνητο δεν παρακάμπτει τίποτα.

Γίνεται προσπάθεια να εξηγηθεί τι ακριβώς συμβαίνει σε τέτοια συστήματα. Το 2015, ερευνητές της Google τροποποίησαν έναν αλγόριθμο αναγνώρισης εικόνων βαθιάς εκμάθησης, έτσι ώστε αντί να βλέπει αντικείμενα στις φωτογραφίες, να τα δημιουργεί ή να τα τροποποιεί. Τρέχοντας τον αλγόριθμο προς τα πίσω, θέλησαν να ανακαλύψουν τα χαρακτηριστικά που χρησιμοποιεί το πρόγραμμα για να αναγνωρίσει, ας πούμε, ένα πουλί ή ένα κτίριο.

Αυτά τα πειράματα, γνωστά δημόσια ως τίτλος, παρήγαγαν εκπληκτικές απεικονίσεις (3) γκροτέσκων, παράξενων ζώων, τοπίων και χαρακτήρων. Αποκαλύπτοντας μερικά από τα μυστικά της μηχανικής αντίληψης, όπως το γεγονός ότι ορισμένα μοτίβα επιστρέφονται και επαναλαμβάνονται επανειλημμένα, έδειξαν επίσης πόσο βαθιά η μηχανική μάθηση διαφέρει από την ανθρώπινη αντίληψη - για παράδειγμα, με την έννοια ότι επεκτείνει και αντιγράφει αντικείμενα που αγνοούμε στη διαδικασία της αντίληψής μας χωρίς σκέψη . .

3. Εικόνα που δημιουργήθηκε στο έργο

παρεμπιπτόντως, Από την άλλη πλευρά, αυτά τα πειράματα έχουν αποκαλύψει το μυστήριο των δικών μας γνωστικών μηχανισμών. Ίσως είναι στην αντίληψή μας ότι υπάρχουν διάφορα ακατανόητα εξαρτήματα που μας κάνουν να καταλάβουμε αμέσως και να αγνοήσουμε κάτι, ενώ το μηχάνημα επαναλαμβάνει υπομονετικά τις επαναλήψεις του σε «ασήμαντα» αντικείμενα.

Άλλες δοκιμές και μελέτες πραγματοποιήθηκαν σε μια προσπάθεια να «κατανοηθεί» το μηχάνημα. Τζέισον Γιοσίνσκι δημιούργησε ένα εργαλείο που λειτουργεί σαν ανιχνευτής κολλημένος στον εγκέφαλο, στοχεύοντας κάθε τεχνητό νευρώνα και αναζητώντας την εικόνα που τον ενεργοποιεί πιο έντονα. Στο τελευταίο πείραμα, αφηρημένες εικόνες εμφανίστηκαν ως αποτέλεσμα του «κρυφώματος» του δικτύου με το χέρι, γεγονός που έκανε τις διαδικασίες που λαμβάνουν χώρα στο σύστημα ακόμη πιο μυστηριώδεις.

Ωστόσο, για πολλούς επιστήμονες, μια τέτοια μελέτη είναι μια παρανόηση, επειδή, κατά τη γνώμη τους, για να κατανοήσουν το σύστημα, να αναγνωρίσουν τα πρότυπα και τους μηχανισμούς μιας ανώτερης τάξης λήψης περίπλοκων αποφάσεων, όλες τις υπολογιστικές αλληλεπιδράσεις μέσα σε ένα βαθύ νευρωνικό δίκτυο. Είναι ένας τεράστιος λαβύρινθος μαθηματικών συναρτήσεων και μεταβλητών. Αυτή τη στιγμή για εμάς είναι ακατανόητο.

Ο υπολογιστής δεν ξεκινά; Γιατί;

Γιατί είναι σημαντικό να κατανοήσουμε τους μηχανισμούς λήψης αποφάσεων των προηγμένων συστημάτων τεχνητής νοημοσύνης; Ήδη χρησιμοποιούνται μαθηματικά μοντέλα για να καθοριστεί ποιοι κρατούμενοι μπορούν να αφεθούν ελεύθεροι υπό όρους, ποιοι μπορούν να λάβουν δάνειο και ποιοι μπορούν να βρουν δουλειά. Όσοι ενδιαφέρονται θα ήθελαν να μάθουν γιατί ελήφθη αυτή και όχι άλλη απόφαση, ποιοι είναι οι λόγοι και ο μηχανισμός της.

παραδέχτηκε τον Απρίλιο του 2017 στο MIT Technology Review. Tommy Yaakkola, καθηγητής του MIT που εργάζεται σε εφαρμογές μηχανικής μάθησης. -.

Υπάρχει ακόμη και μια νομική και πολιτική θέση ότι η ικανότητα ελέγχου και κατανόησης του μηχανισμού λήψης αποφάσεων των συστημάτων τεχνητής νοημοσύνης είναι θεμελιώδες ανθρώπινο δικαίωμα.

Από το 2018, η ΕΕ εργάζεται για να απαιτεί από τις εταιρείες να παρέχουν εξηγήσεις στους πελάτες τους σχετικά με αποφάσεις που λαμβάνονται από αυτοματοποιημένα συστήματα. Αποδεικνύεται ότι αυτό μερικές φορές δεν είναι δυνατό ακόμη και με συστήματα που φαίνονται σχετικά απλά, όπως εφαρμογές και ιστότοποι που χρησιμοποιούν βαθιά επιστήμη για να εμφανίζουν διαφημίσεις ή να προτείνουν τραγούδια.

Οι υπολογιστές που εκτελούν αυτές τις υπηρεσίες προγραμματίζουν μόνοι τους και το κάνουν με τρόπους που δεν μπορούμε να καταλάβουμε... Ακόμη και οι μηχανικοί που δημιουργούν αυτές τις εφαρμογές δεν μπορούν να εξηγήσουν πλήρως πώς λειτουργεί.

Προσθέστε ένα σχόλιο