https://frosthead.com

Μπορούν οι μηχανές να μάθουν την ηθική;

Όταν ο John Brennan, η επιλογή του Προέδρου Obama να είναι ο επόμενος επικεφαλής της CIA, εμφανίστηκε χθες ενώπιον επιτροπής της Γερουσίας, μια ερώτηση αντικατέστησε όλους τους άλλους στην ακρόαση επιβεβαίωσης:

Πώς γίνονται οι αποφάσεις για την αποστολή δολοφόνων δολοφόνων μετά από ύποπτους τρομοκράτες;

Ο τρόπος και ο λόγος για τον οποίο διατάσσονται συγκεκριμένες απεργίες με τροχούς παραμένει σε μεγάλο βαθμό ένα μυστήριο, αλλά τουλάχιστον ένα πράγμα είναι σαφές - οι αποφάσεις γίνονται από ανθρώπους που, ελπίζουμε, θα παλέψουν με τη σκέψη να στείλουν ένα θανατηφόρο πυραύλο σε ένα κατεχόμενο κτίριο.

Αλλά τι γίνεται αν οι άνθρωποι δεν συμμετείχαν; Τι θα συμβεί αν οι αποφάσεις μιας ημέρας ζωής ή θανάτου έμειναν σε μηχανές εξοπλισμένες με φορτία δεδομένων, αλλά και μια αίσθηση σωστού και λάθους;

Ηθικές δυσκολίες

Αυτό δεν έχει φτάσει μέχρι τώρα. Δεν πρόκειται να συμβεί σύντομα, αλλά δεν υπάρχει αμφιβολία ότι καθώς οι μηχανές γίνονται πιο έξυπνες και πιο αυτόνομες, ένα βασικό μέρος του μετασχηματισμού τους θα είναι η ικανότητα να μαθαίνουν την ηθική.

Στην πραγματικότητα, αυτό μπορεί να μην είναι τόσο μακριά. Ο Gary Marcus, γράφοντας πρόσφατα στο The New Yorker, παρουσίασε το σενάριο ενός από τα μηχανοκίνητα αυτοκίνητα της Google πριν αναγκαστεί να κάνει μια απόφαση διαιρεμένου δευτερολέπτου: "Το αυτοκίνητό σας επιταχύνεται κατά μήκος μιας γέφυρας στα 50 μίλια την ώρα, όταν ένα σχολικό λεωφορείο που οδηγεί 40 αθώα παιδιά διασχίζει τη διαδρομή του. Πρέπει το αυτοκίνητό σας να στρεβλώνει, ενδεχομένως να διακινδυνεύει τη ζωή του ιδιοκτήτη του (εσείς), για να σώσει τα παιδιά ή να συνεχίσει να βάζει τα 40 παιδιά σε κίνδυνο; Εάν η απόφαση πρέπει να ληφθεί σε χιλιοστά του δευτερολέπτου, ο υπολογιστής θα πρέπει να πραγματοποιήσει την κλήση. "

Και τι γίνεται με ρομποτικά όπλα ή στρατιώτες; Θα μπορούσε ένας δαίμονας να μάθει να μην πυροβολεί σε ένα σπίτι αν γνώριζε αθώοι πολίτες ήταν επίσης μέσα; Θα μπορούσαν τα μηχανήματα να διδάσκονται να ακολουθούν τους διεθνείς κανόνες του πολέμου;

Ο Ρόναλντ Αρκίν, καθηγητής ηλεκτρονικών υπολογιστών και εμπειρογνώμονας ρομποτικής στη Georgia Tech, σίγουρα το σκέφτεται. Αναπτύσσει λογισμικό, που αναφέρεται ως "ηθικός κυβερνήτης", το οποίο θα έκανε τις μηχανές ικανές να αποφασίσουν πότε είναι σκόπιμο να πυροβολούν και πότε δεν είναι.

Ο Arkin αναγνωρίζει ότι αυτό θα μπορούσε να διαρκέσει ακόμα δεκαετίες, αλλά πιστεύει ότι τα ρομπότ θα μπορούσαν μια μέρα να είναι φυσικά και ηθικά ανώτερα από τους ανθρώπους στρατιώτες, όχι ευάλωτα στο συναισθηματικό τραύμα της μάχης ή τις επιθυμίες για εκδίκηση. Δεν οραματίζεται ένας στρατός όλων των ρομπότ, αλλά ένας στον οποίο τα μηχανήματα εξυπηρετούν ανθρώπους, κάνοντας θέσεις εργασίας υψηλού κινδύνου γεμάτες αγχωτικές αποφάσεις, όπως η εκκαθάριση κτιρίων.

Προσοχή στα ρομπότ δολοφόνων

Αλλά άλλοι αισθάνονται ότι είναι καιρός να σκουριάζουν αυτό το είδος της σκέψης πριν πάει πάρα πολύ μακριά. Στα τέλη του περασμένου έτους, η Human Rights Watch και η Κλινική Ανθρωπίνων Δικαιωμάτων της Νομικής Σχολής του Χάρβαρντ δημοσίευσαν μια έκθεση με τίτλο «Losing Humanity: The Case Against Killer Robots», η οποία σύμφωνα με τον τίτλο της καλεί τις κυβερνήσεις να απαγορεύσουν όλα τα αυτόνομα όπλα. κίνδυνος θανάτου ή τραυματισμού πολιτών κατά τη διάρκεια ένοπλων συγκρούσεων. "

Την ίδια περίπου εποχή, μια ομάδα καθηγητών του Πανεπιστημίου του Cambridge ανακοίνωσε σχέδια για να ξεκινήσει αυτό που αποκαλούν το Κέντρο για τη Μελέτη του Υπαρκούς Κινδύνου. Όταν ανοίγει αργότερα φέτος, θα ωθήσει για σοβαρές επιστημονικές έρευνες για το τι θα μπορούσε να συμβεί εάν και όταν τα μηχανήματα γίνουν πιο έξυπνα από εμάς.

Ο κίνδυνος, λέει ο Huw Price, ένας από τους συνιδρυτές του Κέντρου, είναι ότι μια μέρα θα μπορούσαμε να ασχοληθούμε με "μηχανές που δεν είναι κακόβουλες, αλλά μηχανές των οποίων τα συμφέροντα δεν μας περιλαμβάνουν".

Η τέχνη της εξαπάτησης

Σκιά του Skynet, το απατεώδες σύστημα τεχνητής νοημοσύνης που δημιούργησε έναν cyborg Arnold Schwarzenegger στις ταινίες The Terminator . Ίσως αυτό να είναι πάντα το υλικό της επιστημονικής φαντασίας.

Αλλά εξετάστε και άλλες έρευνες που κάνει ο Ronald Arkin στο πλαίσιο έργων που χρηματοδοτούνται από το Υπουργείο Άμυνας. Αυτός και οι συνάδελφοί του μελετούν πώς τα ζώα εξαπατούν το ένα το άλλο, με στόχο να διδάξουν τα ρομπότ την τέχνη της εξαπάτησης.

Για παράδειγμα, εργάζονται για το προγραμματισμό των ρομπότ, ώστε να μπορούν, εάν είναι απαραίτητο, να υπονοούν τη δύναμη που συχνά κάνουν τα ζώα. Και έβλεπαν τις μηχανές διδασκαλίας για να μιμηθούν τη συμπεριφορά των πλασμάτων όπως ο ανατολικός γκρίζος σκίουρος. Οι σκίουροι κρύβουν τα καρύδια τους από άλλα ζώα και όταν εμφανίζονται άλλοι σκίουροι ή θηρευτές, οι γκρίζοι σκίουροι επισκέπτονται μερικές φορές μέρη όπου κρύβουν καρύδια για να ρίξουν τους ανταγωνιστές τους από την πίστα. Τα ρομπότ που έχουν προγραμματιστεί να ακολουθήσουν μια παρόμοια στρατηγική μπόρεσαν να μπερδέψουν και να επιβραδύνουν τους ανταγωνιστές τους.

Όλα είναι προς το συμφέρον, λέει ο Arkin, για την ανάπτυξη μηχανών που δεν θα αποτελούν απειλή για τον άνθρωπο, αλλά ένα πλεονέκτημα, ιδιαίτερα στο άσχημο χάος του πολέμου. Το κλειδί είναι να αρχίσετε να εστιάζετε τώρα στον καθορισμό οδηγιών για την κατάλληλη συμπεριφορά των ρομπότ.

"Όταν αρχίσετε να ανοίγετε το κιβώτιο της Πανδώρας, τι πρέπει να γίνει με αυτή τη νέα δυνατότητα;", ανέφερε σε πρόσφατη συνέντευξή του. "Πιστεύω ότι υπάρχει η δυνατότητα να μειωθούν τα αμάχητα θύματα από αυτά τα έξυπνα ρομπότ, αλλά πρέπει να είμαστε πολύ προσεκτικοί για τον τρόπο με τον οποίο χρησιμοποιούνται και όχι μόνο να τους απελευθερώσουμε στο πεδίο μάχης χωρίς την κατάλληλη ανησυχία".

Για να πιστέψουμε ότι ο συγγραφέας του New Yorker Gary Marcus, τα προηγμένα ηθικά μηχανήματα προσφέρουν μεγάλη δυνατότητα πέρα ​​από το πεδίο της μάχης.

Η σκέψη που με στοιχειώνει περισσότερο είναι ότι η ίδια η ανθρώπινη ηθική είναι μόνο εργασία σε εξέλιξη. Εξακολουθούμε να αντιμετωπίζουμε καταστάσεις για τις οποίες δεν έχουμε καλά αναπτυγμένους κώδικες (π.χ. στην περίπτωση αυτοβοηθείας) και δεν χρειάζεται να κοιτάξουμε πολύ στο παρελθόν για να βρούμε περιπτώσεις όπου οι δικοί μας κώδικες ήταν αμφίβολοι ή χειρότεροι (π.χ., νόμοι που επιτρέπεται η σκλαβιά και ο διαχωρισμός).

Αυτό που πραγματικά θέλουμε είναι οι μηχανές που μπορούν να προχωρήσουν ένα βήμα παραπέρα, προικισμένο όχι μόνο με τους πιο υγιείς κώδικες δεοντολογίας που μπορούν να επινοήσουν οι καλύτεροι σύγχρονοι φιλόσοφοι μας, αλλά και με τη δυνατότητα των μηχανών να κάνουν τη δική τους ηθική πρόοδο, -η ιδέα της ηθικής των δύο πρώτων αιώνα ».

Οι μηχανές περνούν

Εδώ είναι πιο πρόσφατες εξελίξεις ρομπότ:

  • Hmmmm, ηθική και ύπουλος: Οι ερευνητές στην Αυστραλία έχουν αναπτύξει ένα ρομπότ που μπορεί να γλιστρήσει γύρω από το να κινείται μόνο όταν υπάρχει αρκετός θόρυβος περιβάλλοντος για να καλύψει τον ήχο του.
  • Ποιος είναι αυτός ο βομβιστικός ήχος; Βρετανοί στρατιώτες στο Αφγανιστάν έχουν αρχίσει να χρησιμοποιούν drones επιτήρησης που μπορούν να χωρέσουν στις παλάμες των χεριών τους. Ονομάζεται Black Hornet Nano, το μικρό ρομπότ έχει μήκος μόνο τέσσερις ίντσες, αλλά διαθέτει μια κάμερα κατασκόπων και μπορεί να πετάξει για 30 λεπτά με πλήρη φόρτιση.
  • Το ξύσιμο της επιφάνειας: Η NASA αναπτύσσει ένα ρομπότ που ονομάζεται RASSOR που ζυγίζει μόλις 100 λίβρες, αλλά θα είναι σε θέση να μεταφέρει ορυκτά στο φεγγάρι και σε άλλους πλανήτες. Μπορεί να μετακινηθεί σε ανώμαλο έδαφος και ακόμη και πάνω από τους φακούς, προωθώντας τα επάνω στα χέρια του.
  • Αχ, λαγνεία: Και εδώ είναι μια ιστορία της Πρωτοχρονιάς του Αγίου Βαλεντίνου. Οι επιστήμονες στο Πανεπιστήμιο του Τόκιο χρησιμοποίησαν ένα αρσενικό σκώρο για να οδηγήσουν ένα ρομπότ. Στην πραγματικότητα, χρησιμοποίησαν τις ζευγαρωτικές κινήσεις για να κατευθύνουν τη συσκευή προς ένα αντικείμενο που αρωματίζεται με θηλυκές φερομόνες σκώρου.

Βίντεο bonus: Δεν είστε βέβαιοι ότι θα μπορούσατε να χρησιμοποιήσετε ένα ψηλό ρομπότ 13 ποδιών; Κανένα πρόβλημα. Εδώ είναι ένα καταπληκτικό demo που σας δείχνει πόσο εύκολο μπορεί να είναι. Ένα ευχάριστο μοντέλο σας δείχνει ακόμη πώς μπορείτε να χειριστείτε τη λειτουργία "Smile Shot". Χαμογελάτε, πυρπολούν ΒΒ. Πόσο σκληρό είναι αυτό;

Περισσότερα από το Smithsonian.com

Αυτό το ρομπότ είναι ένας καλύτερος μπαμπάς από τον μπαμπά σας

Ρομπότ Πάρτε το ανθρώπινο άγγιγμα

Μπορούν οι μηχανές να μάθουν την ηθική;