Το φάντασμα του μηχανοκτόνου συνεχίζεται. Σε τι πιστεύει ο Πρόεδρος Πούτιν;
Τεχνολογία

Το φάντασμα του μηχανοκτόνου συνεχίζεται. Σε τι πιστεύει ο Πρόεδρος Πούτιν;

Οι υποστηρικτές των στρατιωτικών ρομπότ (1) υποστηρίζουν ότι τα αυτοματοποιημένα όπλα παρέχουν περισσότερες επιλογές για την προστασία της ανθρώπινης ζωής. Οι μηχανές είναι σε θέση να πλησιάσουν περισσότερο τον εχθρό από τους στρατιώτες και να αξιολογήσουν σωστά την απειλή. Και τα συναισθήματα μερικές φορές παραλύουν την ικανότητα λήψης σωστών αποφάσεων.

Πολλοί υποστηρικτές των ρομπότ δολοφόνων είναι πεπεισμένοι ότι θα κάνουν τους πολέμους λιγότερο αιματηρούς επειδή θα πεθάνουν λιγότεροι στρατιώτες. Σημειώνουν ότι τα ρομπότ, αν και δεν αισθάνονται οίκτο, έχουν ανοσία σε αρνητικά ανθρώπινα συναισθήματα όπως ο πανικός, ο θυμός και η εκδίκηση, που συχνά οδηγούν σε εγκλήματα πολέμου.

Οι ακτιβιστές των ανθρωπίνων δικαιωμάτων χρησιμοποιούν επίσης το επιχείρημα ότι ο στρατός οδήγησε σε τεράστια μείωση των απωλειών αμάχων τον τελευταίο μισό αιώνα, και η ρομποτικοποίηση του στρατού επιτρέπει έναν μηχανισμό για την επιβολή των νόμων του πολέμου πιο αυστηρά. Ισχυρίζονται ότι οι μηχανές θα γίνουν ηθικές όταν είναι εξοπλισμένες με λογισμικό που θα τις αναγκάσει να υπακούουν στους νόμους του πολέμου.

Φυσικά, ένας τεράστιος αριθμός ανθρώπων, μεταξύ των οποίων και πολύ διάσημοι, δεν συμμερίζονται αυτήν την άποψη εδώ και χρόνια. Τον Απρίλιο του 2013 ξεκίνησε μια διεθνής εκστρατεία με το σύνθημα (2). Στο πλαίσιο του, μη κυβερνητικές οργανώσεις απαιτούν την πλήρη απαγόρευση της χρήσης αυτόνομων όπλων. Εμπειρογνώμονες από πολλές χώρες κάθισαν για πρώτη φορά για να συζητήσουν αυτό το θέμα στη Διάσκεψη του ΟΗΕ για τον Αφοπλισμό στη Γενεύη τον Μάιο του 2014. Μια έκθεση που δημοσιεύθηκε λίγους μήνες αργότερα από το Παρατηρητήριο Ανθρωπίνων Δικαιωμάτων και επιστήμονες από το Πανεπιστήμιο του Χάρβαρντ έλεγε ότι οι αυτόνομοι θα ήταν πολύ επικίνδυνοι - επέλεξαν τους δικούς τους στόχους και σκότωναν ανθρώπους. Ταυτόχρονα, δεν είναι πολύ σαφές ποιος πρέπει να λογοδοτήσει.

2. Επίδειξη στο πλαίσιο της δράσης "Stop killer robots"

Τι μπορεί να κάνει ένα σμήνος μικρών drones

Οι διαφωνίες γύρω από τα ρομπότ δολοφόνων (ROU) συνεχίζονται εδώ και χρόνια και δεν εξαφανίζονται. Οι τελευταίοι μήνες έφεραν νέες προσπάθειες να σταματήσουν τα στρατιωτικά ρομπότ και ένα κύμα αναφορών για νέα έργα αυτού του τύπου, μερικά από τα οποία δοκιμάζονται ακόμη και σε πραγματικές συνθήκες μάχης.

Τον Νοέμβριο του 2017, ένα βίντεο που δείχνει θανατηφόρα σμήνη μίνι κηφήνων ., σε τρομακτική δράση. Οι θεατές έχουν δει ότι δεν χρειαζόμαστε πλέον τις βαριές πολεμικές μηχανές, τα τανκς ή τους πύραυλους που ρίχνουν οι Predators για να σκοτώνουμε μαζικά και με πολυβόλα. Ο επικεφαλής διευθυντής Stuart Russell, καθηγητής τεχνητής νοημοσύνης στο Berkeley, λέει:

-

Την περασμένη άνοιξη πενήντα καθηγητές Τα κορυφαία πανεπιστήμια του κόσμου υπέγραψαν έκκληση προς το Κορεατικό Ινστιτούτο Προηγμένης Επιστήμης και Τεχνολογίας (KAIST) και τον συνεργάτη του Hanwha Systems. ανακοίνωσαν ότι δεν θα συνεργαστούν με το πανεπιστήμιο και φιλοξενούν επισκέπτες του KAIST. Αιτία ήταν η κατασκευή «αυτόνομων όπλων» που πραγματοποίησαν και τα δύο ιδρύματα. Η KAIST διέψευσε τα δημοσιεύματα των μέσων ενημέρωσης.

Λίγο αργότερα στις ΗΠΑ περισσότεροι από 3 υπάλληλοι της Google διαμαρτυρήθηκε για το έργο της εταιρείας για τον στρατό. Ανησυχούσαν ότι η Google συνεργαζόταν με ένα κυβερνητικό έργο με την κωδική ονομασία Maven που στοχεύει στη χρήση τεχνητής νοημοσύνης για την αναγνώριση αντικειμένων και προσώπων σε βίντεο με στρατιωτικά drone. Η διοίκηση της εταιρείας λέει ότι στόχος του Maven είναι να σώσει ζωές και να σώσει τους ανθρώπους από την κουραστική δουλειά και όχι την επιθετικότητα. Οι διαδηλωτές δεν πείστηκαν.

Το επόμενο μέρος της μάχης ήταν η δήλωση ειδικοί τεχνητής νοημοσύνης, συμπεριλαμβανομένου εργάζονται σε ένα έργο της Google και Έλον Μασκ. Υπόσχονται να μην αναπτύξουν ρομπότ. Καλούν επίσης τις κυβερνήσεις να εντείνουν τις προσπάθειες για τη ρύθμιση και τον περιορισμό αυτών των όπλων.

Η δήλωση αναφέρει, εν μέρει, ότι «η απόφαση να αφαιρεθεί μια ανθρώπινη ζωή δεν πρέπει ποτέ να λαμβάνεται από μηχανή». Αν και οι στρατοί του κόσμου είναι εξοπλισμένοι με πολλές αυτόματες συσκευές, μερικές φορές με υψηλό βαθμό αυτονομίας, πολλοί ειδικοί φοβούνται ότι στο μέλλον αυτή η τεχνολογία μπορεί να γίνει εντελώς αυτόνομη, επιτρέποντας τη δολοφονία χωρίς καμία ανάμειξη ανθρώπου χειριστή και διοικητή.

Οι ειδικοί προειδοποιούν επίσης ότι οι αυτόνομες μηχανές δολοφονίας θα μπορούσαν να είναι ακόμη πιο επικίνδυνες από τα «πυρηνικά, χημικά και βιολογικά όπλα», επειδή μπορούν εύκολα να ξεφύγουν από τον έλεγχο. Συνολικά, τον περασμένο Ιούλιο, μια επιστολή υπό την αιγίδα του Future of Life Institute (FGI) υπεγράφη από 170 οργανισμούς και 2464 άτομα. Τους πρώτους μήνες του 2019, μια ομάδα ιατρικών επιστημόνων που συνδέονται με το FLI ζήτησε ξανά μια νέα επιστολή για την απαγόρευση της ανάπτυξης ελεγχόμενων όπλων τεχνητής νοημοσύνης (AI).

Η περσινή συνάντηση των Ηνωμένων Εθνών τον Αύγουστο στο Gniewo για την πιθανή νομική ρύθμιση των στρατιωτικών «ρομπότ δολοφόνων» κατέληξε σε επιτυχία... μηχανών. Μια ομάδα χωρών, συμπεριλαμβανομένων των Ηνωμένων Πολιτειών, της Ρωσίας και του Ισραήλ, εμπόδισαν περαιτέρω εργασίες για τη θέσπιση διεθνούς απαγόρευσης αυτών των όπλων (σχέδιο σύμβασης για την απαγόρευση ή τον περιορισμό της χρήσης ορισμένων συμβατικών όπλων, CCW). Δεν είναι τυχαίο ότι αυτές οι χώρες είναι γνωστές για την εργασία τους σε προηγμένα συστήματα αυτόνομων και ρομποτικών όπλων.

Η Ρωσία εστιάζει στα ρομπότ μάχης

Ο Πρόεδρος Βλαντιμίρ Πούτιν φέρεται συχνά να λέει σχετικά με τα στρατιωτικά συστήματα τεχνητής νοημοσύνης και τα ρομπότ μάχης:

-.

μιλά ανοιχτά για την ανάπτυξη αυτόνομων όπλων. Ο αρχηγός του Γενικού Επιτελείου των ενόπλων δυνάμεών του, στρατηγός Valery Gerasimov, δήλωσε πρόσφατα στο στρατιωτικό πρακτορείο ειδήσεων Interfax-AVN ότι η χρήση ρομπότ θα είναι ένα από τα κύρια χαρακτηριστικά των μελλοντικών πολέμων. Πρόσθεσε ότι η Ρωσία προσπαθεί να αυτοματοποιήσει πλήρως το πεδίο της μάχης. Παρόμοια σχόλια έκαναν ο αντιπρόεδρος της κυβέρνησης Ντμίτρι Ρογκόζιν και ο υπουργός Άμυνας Σεργκέι Σόιγκου. Ο πρόεδρος της επιτροπής του Συμβουλίου της Ομοσπονδίας για την Άμυνα και την Ασφάλεια Βίκτορ Μποντάρεφ δήλωσε ότι η Ρωσία προσπαθεί να αναπτυχθεί Τεχνολογίες RojuΑυτό θα επέτρεπε στα δίκτυα drone να λειτουργούν ως ενιαία οντότητα.

Αυτό δεν προκαλεί έκπληξη αν θυμηθούμε ότι τα πρώτα τηλετανκ αναπτύχθηκαν στη Σοβιετική Ένωση τη δεκαετία του '30. Χρησιμοποιήθηκαν στην αρχή του Β' Παγκοσμίου Πολέμου. Σήμερα δημιουργεί και η Ρωσία ρομπότ δεξαμενών γίνονται όλο και πιο αυτόνομοι.

Το κράτος του Πούτιν έστειλε πρόσφατα το δικό του στη Συρία Μη επανδρωμένο όχημα μάχης Uran-9 (3). η συσκευή έχασε την επαφή με τα σημεία ελέγχου εδάφους, είχε προβλήματα με το σύστημα ανάρτησης και τα όπλα της δεν λειτουργούσαν τέλεια και δεν χτυπούσαν κινούμενους στόχους. Δεν ακούγεται πολύ σοβαρό, αλλά πολλοί θεωρούν ότι το συριακό μαντηλάκι είναι μια καλή δοκιμασία μάχης που θα επιτρέψει στους Ρώσους να βελτιώσουν τη μηχανή.

Η Roscosmos ενέκρινε ένα προκαταρκτικό σχέδιο για την αποστολή δύο ρομπότ στον Διεθνή Διαστημικό Σταθμό μέχρι τον Αύγουστο του τρέχοντος έτους. Fedor (4) στην μη επανδρωμένη Ένωση. Όχι σαν φορτίο, αλλά. Όπως και στην ταινία RoboCop, ο Fedor κρατά ένα όπλο και επιδεικνύει θανατηφόρο σκοπευτικό κατά τη διάρκεια ασκήσεων σκοποβολής.

Το ερώτημα είναι γιατί ένα ρομπότ στο διάστημα να είναι οπλισμένο; Υπάρχουν υποψίες ότι το θέμα δεν είναι μόνο σε επίγειες εφαρμογές. Εν τω μεταξύ στη Γη, ο Ρώσος κατασκευαστής όπλων Καλάσνικοφ έδειξε μια οπτικοποίηση ο σκλάβος Ιγκόρεκπου αν και προκάλεσε πολύ γέλιο, σηματοδοτεί ότι η εταιρεία ασχολείται σοβαρά με αυτόνομα οχήματα μάχης. Τον Ιούλιο του 2018, ο Καλάσνικοφ ανακοίνωσε ότι κατασκεύαζε ένα όπλο που χρησιμοποιεί για να παίρνει αποφάσεις «πυροβολώ ή μη πυροβολώ».

Σε αυτές τις πληροφορίες θα πρέπει να προστεθούν αναφορές ότι ο Ρώσος οπλουργός Digtyarev ανέπτυξε ένα μικρό αυτόνομη δεξαμενή Nerekht που μπορεί να κινηθεί αθόρυβα μόνο του προς τον στόχο του και μετά να εκραγεί με ισχυρή δύναμη για να καταστρέψει άλλα ή ολόκληρα κτίρια. Και Tank T14 Armata , το καμάρι των ρωσικών ενόπλων δυνάμεων, σχεδιάστηκε για πιθανό τηλεχειρισμό και μη επανδρωμένη οδήγηση. Το Sputnik ισχυρίζεται ότι Ρώσοι στρατιωτικοί μηχανικοί εργάζονται για να κάνουν το T-14 ένα πλήρως αυτόνομο τεθωρακισμένο όχημα.

Οδηγία ενστάσεων

Ο ίδιος ο αμερικανικός στρατός έχει επιβάλει ένα αρκετά σαφές όριο στο επίπεδο αυτονομίας των όπλων τους. Το 2012, το Υπουργείο Άμυνας των ΗΠΑ εξέδωσε την Οδηγία 3000.09, η οποία ορίζει ότι οι άνθρωποι πρέπει να έχουν το δικαίωμα να εναντιώνονται στις ενέργειες των οπλισμένων ρομπότ. (αν και μπορεί να υπάρχουν κάποιες εξαιρέσεις). Αυτή η οδηγία παραμένει σε ισχύ. Η τρέχουσα πολιτική του Πενταγώνου είναι ότι ο καθοριστικός παράγοντας στη χρήση όπλων πρέπει να είναι πάντα ένα άτομο και ότι αυτή η κρίση πρέπει να είναι. συμμορφώνεται με τους νόμους του πολέμου.

Αν και οι Αμερικανοί χρησιμοποιούν flying, Predator, Reaper και πολλές άλλες υπερμηχανές για δεκαετίες, δεν ήταν και δεν είναι αυτόνομα μοντέλα. Ελέγχονται από χειριστές εξ αποστάσεως, μερικές φορές από απόσταση πολλών χιλιάδων χιλιομέτρων. Μια έντονη συζήτηση για την αυτονομία μηχανών αυτού του τύπου ξεκίνησε με την πρεμιέρα του πρωτοτύπου. Drone X-47B (5), το οποίο όχι μόνο πέταξε ανεξάρτητα, αλλά μπορούσε επίσης να απογειωθεί από ένα αεροπλανοφόρο, να προσγειωθεί σε αυτό και να ανεφοδιαστεί με καύσιμα στον αέρα. Το νόημα είναι επίσης να πυροβολείς ή να βομβαρδίζεις χωρίς ανθρώπινη παρέμβαση. Ωστόσο, το έργο βρίσκεται ακόμη υπό δοκιμή και αναθεώρηση.

5. Δοκιμές του μη επανδρωμένου X-47B σε αμερικανικό αεροπλανοφόρο

Το 2003, το Υπουργείο Άμυνας άρχισε να πειραματίζεται με ένα μικρό ρομπότ που μοιάζει με τανκ. SPOES εξοπλισμένο με πολυβόλο. Το 2007 στάλθηκε στο Ιράκ. Ωστόσο, το πρόγραμμα τελείωσε αφού το ρομπότ άρχισε να συμπεριφέρεται ακανόνιστα, κινώντας το τουφέκι του ακανόνιστα. Ως αποτέλεσμα, ο στρατός των ΗΠΑ εγκατέλειψε την έρευνα για οπλισμένα ρομπότ εδάφους για πολλά χρόνια.

Ταυτόχρονα, ο στρατός των ΗΠΑ αύξησε τις δαπάνες του για επιχειρήσεις από 20 εκατομμύρια δολάρια το 2014 σε 156 εκατομμύρια δολάρια το 2018. Το 2019, αυτός ο προϋπολογισμός έχει ήδη εκτιναχθεί στα 327 εκατομμύρια δολάρια. Πρόκειται για μια σωρευτική αύξηση 1823% μέσα σε λίγα μόλις χρόνια. Οι ειδικοί λένε ότι ήδη από το 2025, ο αμερικανικός στρατός μπορεί να έχει πεδίο μάχης περισσότεροι στρατιώτες ρομπότ παρά άνθρωποι.

Πρόσφατα, πολλές διαμάχες έχουν προκληθεί και ανακοινωθεί από τον στρατό των ΗΠΑ έργο ATLAS () - αυτόματο. Στα μέσα ενημέρωσης, αυτό θεωρήθηκε ως παραβίαση της προαναφερθείσας οδηγίας 3000.09. Ωστόσο, ο αμερικανικός στρατός αρνείται και διαβεβαιώνει ότι αποκλείεται ο αποκλεισμός ενός ατόμου από τον κύκλο λήψης αποφάσεων.

Η τεχνητή νοημοσύνη αναγνωρίζει τους καρχαρίες και τους πολίτες

Ωστόσο, οι υπερασπιστές των αυτόνομων όπλων έχουν νέα επιχειρήματα. καθ. Ο Ρόναλντ Άρκιν, ρομποτικός στο Ινστιτούτο Τεχνολογίας της Τζόρτζια, αναφέρει στις δημοσιεύσεις του ότι Στον σύγχρονο πόλεμο, τα ευφυή όπλα είναι απαραίτητα για την αποφυγή απωλειών αμάχων, καθώς οι τεχνικές μηχανικής μάθησης μπορούν να βοηθήσουν αποτελεσματικά στη διάκριση μεταξύ μαχητών και αμάχων και σημαντικών και ασήμαντων στόχων.

Ένα παράδειγμα τέτοιων δεξιοτήτων τεχνητής νοημοσύνης είναι η περιπολία στις αυστραλιανές παραλίες. drones Little Ripperεξοπλισμένο με το σύστημα SharkSpotter που αναπτύχθηκε από το Πανεπιστήμιο Τεχνολογίας του Σίδνεϊ. Αυτό το σύστημα σαρώνει αυτόματα το νερό για καρχαρίες και ειδοποιεί τον χειριστή όταν δει κάτι μη ασφαλές. (6) Μπορεί να αναγνωρίσει ανθρώπους, δελφίνια, βάρκες, σανίδες του σερφ και αντικείμενα στο νερό για να τα ξεχωρίσει από τους καρχαρίες. Μπορεί να εντοπίσει και να αναγνωρίσει περίπου δεκαέξι διαφορετικά είδη με υψηλή ακρίβεια.

6. Αναγνωρισμένοι καρχαρίες στο σύστημα SharkSpotter

Αυτές οι προηγμένες μέθοδοι μηχανικής εκμάθησης αυξάνουν την ακρίβεια της εναέριας αναγνώρισης κατά περισσότερο από 90%. Για σύγκριση, ένας άνθρωπος χειριστής σε παρόμοια κατάσταση αναγνωρίζει με ακρίβεια το 20-30% των αντικειμένων στις αεροφωτογραφίες. Επιπλέον, η ταυτοποίηση εξακολουθεί να επαληθεύεται από έναν άνθρωπο πριν από έναν συναγερμό.

Στο πεδίο της μάχης, ο χειριστής, βλέποντας την εικόνα στην οθόνη, δύσκολα μπορεί να προσδιορίσει αν οι άνθρωποι στο έδαφος είναι μαχητές με AK-47 στα χέρια ή, για παράδειγμα, αγρότες με λούτσους. Ο Arkin σημειώνει ότι οι άνθρωποι τείνουν να «βλέπουν αυτό που θέλουν να δουν», ειδικά σε στρεσογόνες καταστάσεις. Αυτό το φαινόμενο συνέβαλε στην τυχαία κατάρριψη ιρανικού αεροσκάφους από το USS Vincennes το 1987. Φυσικά, κατά τη γνώμη του, τα όπλα που ελέγχονται από AI θα ήταν καλύτερα από τις σημερινές «έξυπνες βόμβες», οι οποίες δεν είναι πραγματικά ευαίσθητες. Τον περασμένο Αύγουστο, ένας σαουδαραβικός πύραυλος κατευθυνόμενος με λέιζερ έπληξε ένα λεωφορείο γεμάτο μαθητές στην Υεμένη, σκοτώνοντας σαράντα παιδιά.

«Εάν ένα σχολικό λεωφορείο έχει τη σωστή σήμανση, η αναγνώρισή του σε ένα αυτόνομο σύστημα μπορεί να είναι σχετικά εύκολη», υποστηρίζει ο Arkin στο Popular Mechanics.

Ωστόσο, αυτά τα επιχειρήματα δεν φαίνεται να πείθουν τους αγωνιστές κατά των αυτόματων δολοφόνων. Εκτός από την απειλή των ρομπότ δολοφόνων, πρέπει να ληφθεί υπόψη και μια άλλη σημαντική περίσταση. Ακόμη και ένα «καλό» και «προσεκτικό» σύστημα μπορεί να χακαριστεί και να καταληφθεί από πολύ κακούς ανθρώπους. Τότε όλα τα επιχειρήματα για την υπεράσπιση του στρατιωτικού εξοπλισμού χάνουν τη δύναμή τους.

Προσθέστε ένα σχόλιο