https://frosthead.com

Μπορούν οι δολοφόνοι ρομπότ να μάθουν να ακολουθούν τους κανόνες του πολέμου;

Όπως μας υπενθυμίζει η Ημέρα Μνήμης κάθε χρόνο, ο πόλεμος δεν πάει μακριά.

Αλλά αλλάζει. Και μια από τις πιο βαθιές βάρδιες που θα δούμε τα επόμενα χρόνια είναι σε ένα στρατό όλο και πιο εξαρτημένο από τα ρομπότ. Οι Drones απολαμβάνουν το μεγαλύτερο μέρος της προσοχής τώρα, αλλά όλο και περισσότερες καινοτομίες του Τμήματος Άμυνας είναι άλλα είδη μη επανδρωμένων μηχανών, από πειραματικά αεροσκάφη μέχρι στρατιώτες στο έδαφος.

Είναι εύκολο να καταλάβετε την έλξη. Η χρήση ρομπότ είναι δυνητικά πιο αποτελεσματική, ακριβέστερη και λιγότερο δαπανηρή από αυτή που βασίζεται αποκλειστικά στους ανθρώπους στον πόλεμο. Και θα σήμαινε φυσικά και λιγότερα ανθρώπινα θύματα.

Αλλά αυτή η μεταμόρφωση φέρνει μαζί της μια περίπλοκη πρόκληση: Μπορούν οι στρατιωτικές μηχανές να προγραμματιστούν να λάβουν αποφάσεις; Αυτό οδηγεί σε μια πιο δύσκολη ερώτηση: Μπορούν τα ρομπότ να μάθουν την ηθική;

Το Γραφείο Ναυτικών Ερευνών των ΗΠΑ πιστεύει ότι είναι η στιγμή να ανακαλύψουμε. Νωρίτερα αυτό το μήνα, ανακοίνωσε μια επιχορήγηση ύψους 7, 5 εκατομμυρίων δολαρίων για την χρηματοδότηση της έρευνας σε πανεπιστήμια Tufts, Brown, Yale και Georgetown και στο Ινστιτούτο Rensselaer Polytechnic Institute (RPI) σχετικά με το αν οι μηχανές μπορούν να επιλέξουν μια μέρα από λάθος.

Το Πολεμικό Ναυτικό θέλει να αποφύγει την κατάσταση που αντιμετωπίζει σήμερα το μηχανοδηγό της Google: έχοντας μια τεχνολογία που κυκλοφορεί πολύ νωρίτερα από οποιαδήποτε σαφήνεια στα νομικά και δεοντολογικά ζητήματα που θέτει. Πριν ξεκινήσουν τα αυτόνομα ρομπότ στον τομέα, ο στρατός θέλει να μάθει αν μπορούν πραγματικά να μάθουν να κάνουν το σωστό.

Όπως βλέπει ο Selmer Bringsjord, επικεφαλής του Τμήματος Γνωστικών Επιστημών του RPI, η τεχνητή νοημοσύνη ενός ρομπότ μπορεί να σχεδιαστεί για να λειτουργεί σε δύο επίπεδα ηθικής. Ο πρώτος θα βασίζεται σε έναν κατάλογο επιλογών με σαφείς ηθικές επιλογές, όπως "αν έρχεστε σε έναν τραυματισμένο στρατιώτη, θα πρέπει να τον βοηθήσετε". Αλλά τι γίνεται αν η δράση αυτή έρχεται σε σύγκρουση με την κύρια αποστολή του, όπως η παροχή πυρομαχικών που χρειάζονται άλλοι στρατιώτες; Σε αυτό το σημείο, λέει ο Bringsjord, το ρομπότ θα χρειαστεί να έχει την ικανότητα να εμπλακεί σε "βαθύτερη ηθική λογική" για να λάβει αποφάσεις σε καταστάσεις που οι προγραμματιστές του ίσως δεν ήταν σε θέση να προβλέψουν.

Οι ερευνητές θα πρέπει να αναπτύξουν μοναδικούς αλγόριθμους και υπολογιστικούς μηχανισμούς που θα μπορούσαν να ενσωματωθούν στην υπάρχουσα αρχιτεκτονική των αυτόνομων ρομπότ, μια «διαδικασία σκέψης» που θα επέτρεπε σε μια μηχανή να υπερισχύει της προγραμματισμένης συμπεριφοράς με βάση την ικανότητά της να εφαρμόζει την ηθική λογική.

Αν αυτό φαίνεται εξαιρετικά φιλόδοξο, καλά, είναι. Αρχικά, οι ερευνητές θα πρέπει να απομονώσουν τα βασικά στοιχεία της ανθρώπινης ηθικής - με ποιες αρχές όλοι συμφωνούμε; -και στη συνέχεια να υπολογίσουμε πώς να τις ενσωματώσουμε σε αλγόριθμους που θα δώσουν στα ρομπότ κάποιο επίπεδο ηθικής ικανότητας.

Δεν είναι μικρή επιχείρηση. Για το λόγο αυτό, είναι πιθανό οι μηχανές που δεν ελέγχονται από τον άνθρωπο να περιοριστούν, στο άμεσο μέλλον, σε ρόλους μη μάχης, όπως η επιτήρηση, η ασφάλεια, η αναζήτηση και η διάσωση ή η ιατρική περίθαλψη. Αλλά αναπόφευκτα, οι στρατιωτικοί σχεδιαστές θα θέλουν μια απάντηση στο ερώτημα που κρέμεται πάνω από όλα αυτά: Πρέπει τα ρομπότ, ενεργώντας μόνοι τους, να επιτρέπεται πάντα να σκοτώνουν έναν άνθρωπο;

Εάν ένα μηχάνημα είναι 90 τοις εκατό σίγουρος ότι όλοι σε ένα όχημα σκοπεύει να πυροβολήσει είναι τρομοκράτης, είναι αυτό αρκετά σίγουρο; Θα μπορούσε ένα ρομπότ να πυροβολήσει ένα όπλο σε ένα παιδί εάν το καθορίσει ότι είναι ο εχθρός; Αν κάτι πάει στραβά και ένα αυτόνομο ρομπότ λανθασμένα ανατινάξει ένα χωριό, ποιος είναι υπεύθυνος; Ο διοικητής που διέταξε τη λειτουργία; Το άτομο που προγραμματίζει το ρομπότ; Ή κανένας;

Αν νομίζετε ότι αυτό εξακολουθεί να είναι το θέμα της επιστημονικής φαντασίας, θεωρήστε ότι νωρίτερα αυτό το μήνα, εμπειρογνώμονες σε θέματα που κυμαίνονται από την τεχνητή νοημοσύνη μέχρι τα ανθρώπινα δικαιώματα στο διεθνές δίκαιο ζυγίζονται σε "ρομπότ δολοφόνων" σε διάσκεψη των Ηνωμένων Εθνών στη Γενεύη. Ομάδες όπως το Human Rights Watch και αξιωματούχοι από μια χούφτα χώρες, συμπεριλαμβανομένου του Πακιστάν, της Αιγύπτου, της Κούβας και του Βατικανού, ζήτησαν την πλήρη απαγόρευση των ρομπότ με την εξουσία να σκοτώνουν. Αλλά οι περισσότερες χώρες, ιδιαίτερα εκείνες με τα πιο προηγμένα ρομπότ, δεν είναι έτοιμες να πάνε τόσο μακριά.

Ρίξτε μια ματιά, για παράδειγμα, στο WildCat, ένα τετράποδο ρομπότ που αναπτύχθηκε για να τρέξει σε υψηλές ταχύτητες σε όλα τα είδη εδάφους.

Προς το παρόν, ο αμερικανικός στρατός ακολουθεί μια οδηγία του Υπουργείου Άμυνας του 2012 ότι καμία μηχανή με την εξουσία να σκοτώνει δεν μπορεί να είναι πλήρως αυτόνομη. Ένας άνθρωπος πρέπει, κυριολεκτικά, να καλέσει τα πλάνα. Αλλά αυτό μπορεί να μην ισχύει για όλα τα μέρη: Τον Μάρτιο, ο New Scientist ανέφερε ρωσικό αξιωματούχο λέγοντας ότι οι ρομποτικές φυλακές σε πέντε εγκαταστάσεις βαλλιστικών πυραύλων θα είναι σε θέση να ανιχνεύουν και να καταστρέφουν τους στόχους χωρίς έναν άνθρωπο να δίνει το πράσινο φως.

Το Foster-Miller Talon, που φαίνεται παρακάτω, είναι ένα από τα πολλά μηχανήματα σε όλο τον κόσμο που αναπτύσσονται για μάχη.

Κανόνες πολέμου

Μια έκθεση σχετικά με τη διάσκεψη ρομπότ δολοφόνων θα παρουσιαστεί στην επιτροπή του ΟΗΕ για τα Ομογενούς Όπλα τον Νοέμβριο. Αλλά δεν φαίνεται να έρχεται σύντομα μια απαγόρευση.

Μεταξύ εκείνων που εντάχθηκαν στη συζήτηση στη Γενεύη ήταν ο Ronald Arkin, ένας εμπειρογνώμονας τεχνητής νοημοσύνης από την Georgia Tech, ο οποίος από καιρό υποστηρίζει ότι δίνει τη δυνατότητα στις μηχανές να κάνουν ηθικές αποφάσεις. Πιστεύει ότι εάν τα ρομπότ μπορούν να μάθουν να ακολουθούν το διεθνές δίκαιο, θα μπορούσαν πραγματικά να συμπεριφέρονται πιο ηθικά από τους ανθρώπους στον πόλεμο, διότι θα ήταν σταθερά συνεπείς. Δεν θα ήταν σε θέση να ανταποκριθούν με θυμό ή με πανικό ή προκατάληψη. Έτσι, ο Arkin αντιτίθεται σε απαγόρευση, αν και είναι ανοικτή σε μορατόριουμ για τα αυτόνομα όπλα μέχρι να δοθεί στις μηχανές η ευκαιρία να δουν αν μπορούν να κυριαρχήσουν στους κανόνες του πολέμου.

Ένας άλλος επιστήμονας του AI, ο Noel Sharkey, ο οποίος συζήτησε τον Arkin στη Γενεύη, έχει ένα πολύ διαφορετικό μυαλό. Δεν πιστεύει ότι τα ρομπότ θα πρέπει ποτέ να έχουν την εξουσία να κάνουν αποφάσεις για τη ζωή ή το θάνατο.

Πρόσφατα είπε στον Defense One : "Δεν νομίζω ότι θα καταλήξουν ποτέ με ένα ηθικό ή ηθικό ρομπότ. Γι 'αυτό πρέπει να έχουμε ηθική εκπροσώπηση. Γι 'αυτό πρέπει να κατανοήσουμε τους άλλους και να μάθουμε τι σημαίνει να υποφέρουμε ».

"Ένα ρομπότ μπορεί να εγκατασταθεί με ορισμένους κανόνες δεοντολογίας, αλλά δεν θα νοιαστεί πραγματικά", λέει.

Μπορούν οι δολοφόνοι ρομπότ να μάθουν να ακολουθούν τους κανόνες του πολέμου;