Η τεχνητή νοημοσύνη δεν ακολουθεί τη λογική της επιστημονικής προόδου
Τεχνολογία

Η τεχνητή νοημοσύνη δεν ακολουθεί τη λογική της επιστημονικής προόδου

Έχουμε γράψει πολλές φορές στο MT για ερευνητές και επαγγελματίες που διακηρύσσουν τα συστήματα μηχανικής μάθησης ως «μαύρα κουτιά» (1) ακόμη και για αυτούς που τα κατασκευάζουν. Αυτό καθιστά δύσκολη την αξιολόγηση των αποτελεσμάτων και την επαναχρησιμοποίηση των αναδυόμενων αλγορίθμων.

Τα νευρωνικά δίκτυα - η τεχνική που μας δίνει έξυπνα ρομπότ μετατροπής και ευφυείς παραγωγούς κειμένου που μπορούν ακόμη και να δημιουργήσουν ποίηση - παραμένει ένα ακατανόητο μυστήριο για τους εξωτερικούς παρατηρητές.

Γίνονται μεγαλύτεροι και πιο περίπλοκοι, χειρίζονται τεράστια σύνολα δεδομένων και χρησιμοποιούν τεράστιους υπολογιστικούς πίνακες. Αυτό καθιστά την αναπαραγωγή και την ανάλυση των ληφθέντων μοντέλων δαπανηρή και μερικές φορές αδύνατη για άλλους ερευνητές, εκτός από μεγάλα κέντρα με τεράστιους προϋπολογισμούς.

Πολλοί επιστήμονες γνωρίζουν καλά αυτό το πρόβλημα. Ανάμεσά τους και ο Joel Pino (2), πρόεδρος του NeurIPS, του κορυφαίου συνεδρίου για την αναπαραγωγιμότητα. Οι ειδικοί υπό την ηγεσία της θέλουν να δημιουργήσουν μια «λίστα ελέγχου αναπαραγωγιμότητας».

Η ιδέα, είπε ο Pino, είναι να ενθαρρύνουμε τους ερευνητές να προσφέρουν στους άλλους έναν οδικό χάρτη, ώστε να μπορούν να αναδημιουργήσουν και να χρησιμοποιήσουν το έργο που έχει ήδη γίνει. Μπορείτε να θαυμάσετε την ευγλωττία μιας νέας δημιουργίας κειμένου ή την υπεράνθρωπη επιδεξιότητα ενός ρομπότ βιντεοπαιχνιδιών, αλλά ακόμη και οι καλύτεροι ειδικοί δεν έχουν ιδέα πώς λειτουργούν αυτά τα θαύματα. Επομένως, η αναπαραγωγή μοντέλων τεχνητής νοημοσύνης είναι σημαντική όχι μόνο για τον εντοπισμό νέων στόχων και κατευθύνσεων για έρευνα, αλλά και ως καθαρά πρακτικό οδηγό χρήσης.

Άλλοι προσπαθούν να λύσουν αυτό το πρόβλημα. Οι ερευνητές της Google πρόσφεραν «κάρτες μοντέλων» για να περιγράψουν λεπτομερώς τον τρόπο δοκιμής των συστημάτων, συμπεριλαμβανομένων αποτελεσμάτων που υποδεικνύουν πιθανά σφάλματα. Ερευνητές στο Ινστιτούτο Allen για την Τεχνητή Νοημοσύνη (AI2) δημοσίευσαν μια εργασία που στοχεύει να επεκτείνει τη λίστα ελέγχου αναπαραγωγιμότητας Pinot σε άλλα βήματα της πειραματικής διαδικασίας. «Δείξε τη δουλειά σου», προτρέπουν.

Μερικές φορές λείπουν βασικές πληροφορίες επειδή το ερευνητικό έργο ανήκει, ειδικά σε εργαστήρια που εργάζονται για την εταιρεία. Συχνότερα, ωστόσο, είναι σημάδι αδυναμίας περιγραφής μεταβαλλόμενων και ολοένα πιο περίπλοκων μεθόδων έρευνας. Τα νευρωνικά δίκτυα είναι μια πολύ περίπλοκη περιοχή. Για να έχετε τα καλύτερα αποτελέσματα, απαιτείται συχνά λεπτομέρεια χιλιάδων "πόμολα και κουμπιά", τα οποία ορισμένοι αποκαλούν "μαύρη μαγεία". Η επιλογή του βέλτιστου μοντέλου συνδέεται συχνά με μεγάλο αριθμό πειραμάτων. Η μαγεία γίνεται πολύ ακριβή.

Για παράδειγμα, όταν το Facebook προσπάθησε να αναπαραγάγει το έργο του AlphaGo, ενός συστήματος που αναπτύχθηκε από την DeepMind Alphabet, το έργο αποδείχθηκε εξαιρετικά δύσκολο. Τεράστιες υπολογιστικές απαιτήσεις, εκατομμύρια πειράματα σε χιλιάδες συσκευές για πολλές ημέρες, σε συνδυασμό με την έλλειψη κώδικα, έκαναν το σύστημα «πολύ δύσκολο, αν όχι αδύνατο, να αναδημιουργηθεί, να δοκιμαστεί, να βελτιωθεί και να επεκταθεί», σύμφωνα με τους υπαλλήλους του Facebook.

Το πρόβλημα φαίνεται να είναι εξειδικευμένο. Ωστόσο, αν σκεφτούμε περαιτέρω, το φαινόμενο των προβλημάτων με την αναπαραγωγιμότητα των αποτελεσμάτων και των λειτουργιών μεταξύ μιας ερευνητικής ομάδας και μιας άλλης υπονομεύει όλη τη λογική της λειτουργίας της επιστήμης και των ερευνητικών διαδικασιών που είναι γνωστή σε εμάς. Κατά κανόνα, τα αποτελέσματα προηγούμενης έρευνας μπορούν να χρησιμοποιηθούν ως βάση για περαιτέρω έρευνα που τονώνει την ανάπτυξη της γνώσης, της τεχνολογίας και της γενικής προόδου.

Προσθέστε ένα σχόλιο