https://frosthead.com

Μπορεί η τεχνητή νοημοσύνη να βοηθήσει να σταματήσει το σχολικό σουτ;

Για όλη τους την εκπληκτική συχνότητα, τα γυρίσματα στο σχολείο παραμένουν μια συγκλονιστική φρίκη.

Δεν υπάρχει μόνο μικρή συναίνεση για το πώς να τις σταματήσουμε - με προτάσεις που κυμαίνονται από τον περιορισμό της πρόσβασης των πυροβόλων όπλων σε όπλους - αλλά υπάρχει ακόμα λιγότερη βεβαιότητα για το γιατί ένας μαθητής θα άνοιγε φωτιά στους συμμαθητές του.

Τώρα, κάποιοι επιστήμονες αρχίζουν να διερευνούν εάν η τεχνητή νοημοσύνη (AI) μπορεί να βοηθήσει στην εξεύρεση απαντήσεων. Η ιδέα είναι ότι οι αλγόριθμοι θα μπορούσαν να είναι σε θέση να αναλύσουν καλύτερα τα δεδομένα που σχετίζονται με τους πυροβολισμούς στα σχολεία και ίσως ακόμη και να προσδιορίσουν τα πρότυπα στη γλώσσα ή τη συμπεριφορά των μαθητών που θα μπορούσαν να προκαθορίσουν τη σχολική βία. Η έρευνα βρίσκεται ακόμη σε πρώιμα στάδια και η προοπτική χρήσης μηχανών για την πρόβλεψη του ποιος μπορεί να γίνει σχολικός σκοπευτής εγείρει ζητήματα ιδιωτικού απορρήτου και άλλα δεοντολογικά ζητήματα που συνδέονται με οποιαδήποτε μορφή δημιουργίας προφίλ, ιδίως δεδομένου ότι η διαδικασία θα αφορούσε παιδιά. Ο στόχος, όμως, είναι να δούμε αν η αναλυτική δύναμη των έξυπνων μηχανημάτων μπορεί να δώσει μεγαλύτερη σαφήνεια στις τραγωδίες που καταναλώνεται πολύ συχνά σε ένα στροβιλισμό υψηλών συναισθημάτων και πολιτικής ρητορικής.

Όσον αφορά την τεχνολογία

Χρησιμοποιώντας την τεχνητή νοημοσύνη ως έναν τρόπο να φέρει την επιστημονική ανάλυση σε κάτι τόσο απροσδόκητο όσο οι γυμναστικοί πυροβολισμοί έκαναν μεγάλη έκκληση στον Shreya Nallapati. Μόλις αποφοίτησε από το γυμνάσιο στο Κολοράντο, αλλά τον Φεβρουάριο, μετά τον θάνατο των 17 φοιτητών στο πάρκο Parkland της Φλόριντα, εμπνεύστηκε η φοιτητική ηγέτρια Emma Gonzalez να αναλάβει δράση.

"Ένιωσα ότι δεν πρέπει να δημοσιεύουμε μόνο τις σκέψεις μας και τα συλλυπητήριά μας", λέει ο Nallapati. «Νόμιζα ότι ως μια αυξανόμενη γενιά χιλιετηρίδων, θα πρέπει να προσπαθήσουμε να χρησιμοποιήσουμε αυτό που γνωρίζουμε με την καλύτερη τεχνολογία».

Έτσι, ο Nallapati, ο οποίος μελετά την τεχνητή νοημοσύνη στο γυμνάσιο, έφτασε σε άλλες νέες γυναίκες που γνωρίζει μέσω ενός προγράμματος που ονομάζεται Aspirations in Computing, το οποίο διευθύνει το Εθνικό Κέντρο Γυναικών και Πληροφορικής. Οι προσδοκίες στον τομέα της Πληροφορικής ενθαρρύνουν τις νέες γυναίκες να εισέλθουν σε υπολογιστικά και τεχνολογικά πεδία.

Ο Nallapati ζήτησε από άλλους στην ομάδα να συμμετάσχουν σε ένα νέο έργο, #NeverAgainTech. Ελπίζει ότι η συλλογική προσπάθεια θα οδηγήσει σε μια συλλογή και ανάλυση που θα βασίζεται σε ΑΙ για ένα ευρύ φάσμα δεδομένων που σχετίζονται με πυροβολισμούς στα σχολεία - από δημογραφικές και κοινωνικοοικονομικές πληροφορίες για παλαιούς σκοπευτές, σε ιστορικό χρήσης ναρκωτικών ή νευρολογικών διαταραχών, διαθεσιμότητα όπλων στις πολιτείες όπου έχουν σημειωθεί επιθέσεις. Ο στόχος είναι να αναπτυχθεί μια πληρέστερη κατανομή των πολλών στοιχείων των πυροβολισμών στα σχολεία από οτιδήποτε υπάρχει σήμερα και να καταστεί το διαθέσιμο λογισμικό διαθέσιμο στο κοινό, ιδίως σχολεία και υπηρεσίες επιβολής του νόμου, το επόμενο έτος.

Αξιολόγηση του κινδύνου

Μια ομάδα ερευνητών στο Ιατρικό Κέντρο Νοσοκομείων Παιδιών Νοσοκομείων του Cincinnati υιοθετεί μια διαφορετική προσέγγιση στη χρήση του AI για την αντιμετώπιση της βίας στο σχολείο. Δημοσίευσε μια πρόσφατη μελέτη που υποδηλώνει ότι η μάθηση μέσω μηχανής θα μπορούσε ενδεχομένως να βοηθήσει τους θεραπευτές και τους συμβούλους να διακρίνουν το επίπεδο κινδύνου που μπορεί να παρουσιάσει ένας φοιτητής.

Συγκεκριμένα, οι επιστήμονες διαπίστωσαν ότι η ΑΠ ήταν εξίσου ακριβής με μια ομάδα ψυχιάτρων παιδιών και εφήβων όταν εκτιμήθηκε ο κίνδυνος βίαιης συμπεριφοράς με βάση συνεντεύξεις με 119 παιδιά ηλικίας 12 έως 18 ετών. Ενώ η μελέτη εστιάστηκε σε μεγάλο βαθμό στη σωματική επιθετικότητα, ο επικεφαλής ερευνητής Drew Barzman λέει ότι ήταν επίσης εφαρμόσιμος στην εκτίμηση του κινδύνου γυμναστικής.

«Υπάρχουν συνήθως προειδοποιητικά σημάδια προτού υπάρξει σχολική βία», λέει. Συγκεκριμένα, η γλώσσα που χρησιμοποιεί ο φοιτητής κατά τη διάρκεια μιας συνέντευξης μπορεί να βοηθήσει να διακρίνει έναν έφηβο υψηλού κινδύνου από ένα χαμηλού κινδύνου, σύμφωνα με την προηγούμενη έρευνα που κατευθύνεται ο Barzman. Η μελέτη αυτή κατέληξε στο συμπέρασμα ότι η πρώτη ήταν πιο πιθανό να εκφράσει αρνητικά συναισθήματα για τον εαυτό του και για τις πράξεις άλλων. Επίσης, ήταν πιο πιθανό να μιλήσει για βίαιες πράξεις που αφορούσαν τον εαυτό του και βίαια βιντεοπαιχνίδια ή ταινίες.

Η ομάδα πήρε ένα ακόμη βήμα έχοντας έναν αλγόριθμο αλγορίθμου ΑΙ, χρησιμοποιώντας τα αποτελέσματα της προηγούμενης μελέτης, για να αναλύσει τις μεταγραφές των μαθητών που πήραν συνέντευξη για τη νέα έρευνα. Με βάση τα πρότυπα γλώσσας, έδειξε αν ένα άτομο ήταν υψηλός ή χαμηλός κίνδυνος να διαπράξει βία. Πάνω από το 91% του χρόνου, ο αλγόριθμος, χρησιμοποιώντας μόνο τους transciripts, ευθυγραμμίστηκε με τις εκτενέστερες αξιολογήσεις μιας ομάδας ψυχιάτρων παιδιών και εφήβων, οι οποίοι είχαν επίσης πρόσβαση σε πληροφορίες από γονείς και σχολεία.

Οι σπουδαστές στη μελέτη προσελήφθησαν σε μεγάλο βαθμό από ψυχιατρικές κλινικές εξωτερικών ασθενών, νοσοκομειακές μονάδες και τμήματα έκτακτης ανάγκης. Κάποιοι είχαν πρόσφατα επιδείξει σημαντικές αλλαγές συμπεριφοράς, αλλά για άλλους, οι αλλαγές ήταν πιο ήσσονος σημασίας. Ο Barzman λέει ότι παρακολούθησαν ένα ευρύ φάσμα σχολείων, αν και κανένας δεν ήταν εκπαιδευμένος στο σπίτι.

Σύμφωνα με τον Barzman, η μελέτη εστιάστηκε στην πρόβλεψη της σωματικής επιθετικότητας στο σχολείο, αλλά δεν είναι ακόμα γνωστό αν η μηχανική μάθηση θα μπορούσε να αποτρέψει την βία. Η εστίαση σε αυτό το σημείο είναι να παρέχουμε στους θεραπευτές και τους συμβούλους ένα εργαλείο που θα μπορούσε να οξύνει τις αξιολογήσεις των μαθητών με βάση συνεντεύξεις. Η πρόθεση, σημειώνει ο Barzman, είναι να μην έχουν μηχανές να λαμβάνουν αποφάσεις σχετικά με τους μαθητές.

"Βασικά θα έπρεπε να βοηθάει τον κλινικό για τη λήψη αποφάσεων", λέει ο Barzman. "Θα τους παρέχουμε μια δομή όσων έχουμε βρει ως σημαντικές ερωτήσεις: μπορεί να είναι δύσκολο να κάνεις συνέντευξη από έναν φοιτητή, να διαλέξεις τις σωστές πληροφορίες και να θυμηθείς τα πάντα." Η ιδέα είναι να τους δώσεις ένα εργαλείο που μπορεί να τους βοηθήσει μέσω της διαδικασίας και την αύξηση της ακρίβειας των αξιολογήσεών τους. "

Ο Matty Squarzoni είναι άλλος που πιστεύει στο δυναμικό της τεχνητής νοημοσύνης για την αντιμετώπιση της σχολικής βίας. Είναι Διευθύνων Σύμβουλος μιας εκκίνησης στην Καλιφόρνια που ονομάζεται Sitch AI, η οποία σχεδιάζει να διαθέσει στην αγορά τεχνολογία που λέει ότι θα μπορούσε να βοηθήσει τα σχολεία να αντιμετωπίσουν τέτοιες απειλές. Η αρχική εστίαση θα είναι στην ανάπτυξη ενός συστήματος αισθητήρων που θα επιτρέψει στους αστυνομικούς να ανιχνεύσουν την ακριβή θέση των πυροβολισμών και επίσης να παρακολουθήσουν τις κινήσεις ενός σκοπευτή μέσα από ένα σχολείο. Ωστόσο, η Squarzoni αναφέρει ότι η εταιρεία εξετάζει επίσης τρόπους για τη χρήση της ανάλυσης πρόβλεψης για να εντοπίσει πιθανά προβλήματα προτού να γίνουν βίαια.

Πιστεύει ότι η τεχνητή νοημοσύνη θα μπορούσε να αναλύσει τα δεδομένα ενός σπουδαστή και να επισημάνει τις σημαντικές αλλαγές στην απόδοσή του ή τη συμπεριφορά του. Ο Squarzoni αναγνωρίζει πιθανές ανησυχίες για την προστασία της ιδιωτικής ζωής, αλλά λέει ότι η εταιρεία δεν θα γνωρίζει τις ταυτότητες των μαθητών.

"Δεν μιλάμε για τη δημιουργία προφίλ", λέει. "Θα εξετάζαμε κάθε άτομο ως μοναδική οντότητα. Αλλά οι άνθρωποι είναι πλάσματα της συνήθειας. Όταν αρχίζουν να έχουν παρατυπίες, τότε αρχίζετε να τις κοιτάτε. Βλέπετε σημαίες και ίσως οι σημαίες αρχίζουν να πλησιάζουν. Θα μπορούσαν να είναι θέματα ψυχικής υγείας, ή ίσως οι βαθμοί τους πέφτουν.

"Δεν εξετάζουμε το να μπορούμε να πούμε, " Αυτό το πρόσωπο θα είναι shooter. " Θέλουμε να είμαστε σε θέση να πούμε, "Αυτό το πρόσωπο χρειάζεται βοήθεια."

Οχι τόσο γρήγορα?

Αλλά άλλοι έχουν σοβαρές ανησυχίες σχετικά με τη βιασύνη να χρησιμοποιούν αλγόριθμους λογισμικού για την αντιμετώπιση σύνθετων κοινωνικών ζητημάτων.

"Βλέπουμε τώρα μια τάση του AI να εφαρμόζεται σε πολύ ευαίσθητους τομείς με ανησυχητικές ταχύτητες και οι άνθρωποι που κάνουν αυτούς τους αλγορίθμους δεν καταλαβαίνουν απαραίτητα όλες τις κοινωνικές και ακόμη και πολιτικές πτυχές των δεδομένων που χρησιμοποιούν", λέει η Rashida Richardson, διευθυντής έρευνας πολιτικής στο AI Now Institute, ένα πρόγραμμα στο Πανεπιστήμιο της Νέας Υόρκης που μελετά τις κοινωνικές επιπτώσεις της τεχνητής νοημοσύνης.

Ένας τομέας όπου η χρήση του AI έχει πυρποληθεί είναι αυτό που είναι γνωστό ως προληπτική αστυνόμευση. Πρόκειται για προϊόντα λογισμικού που αναλύουν τα στατιστικά στοιχεία του εγκλήματος και στη συνέχεια προβλέπουν πού είναι πιο πιθανό να διαπράττονται εγκλήματα. Αλλά οι επικριτές επισημαίνουν ότι τα δεδομένα όπως οι συλλήψεις μπορεί να είναι αποτέλεσμα ανθρώπινης προκατάληψης, η οποία τελικά μπορεί να ψηθεί στον αλγόριθμο.

Αυτός είναι πάντα ο κίνδυνος πρόβλεψης της ανάλυσης και γιατί η πηγή των δεδομένων αποτελεί βασικό παράγοντα για τον προσδιορισμό του αντικειμενικού αποτελέσματος. Με το εργαλείο AI που αναπτύχθηκε από τους ερευνητές του Κινκινάτι Νοσοκομείο για παιδιά, ωστόσο, η ανάλυση βασίζεται σε αυτό που λένε οι μεμονωμένοι μαθητές κατά τη διάρκεια μιας συνέντευξης και όχι σε μια ευρεία συλλογή στατιστικών στοιχείων.

Ακόμα, ο Richardson πιστεύει ότι είναι σημαντικό οι ομάδες που δημιουργούν αυτό το είδος λογισμικού να είναι «διεπιστημονικές», ώστε οι εκπαιδευτικοί, για παράδειγμα, να συμμετέχουν σε προγράμματα που εκτιμούν τη συμπεριφορά των μαθητών.

"Οι ερευνητές μπορεί να μην κατανοούν πολλές από τις αποχρώσεις του τι λένε οι άνθρωποι στην παιδεία και τη νομική πολιτική κόσμο σχολικό κλίμα. Αυτό περιλαμβάνει ζητήματα ασφάλειας και συμπεριφοράς », λέει. "Το είδος του σχολείου στο οποίο είσαι συχνά θα υπαγορεύει πώς αντιμετωπίζεται η συμπεριφορά και πώς χειρίζεται η πειθαρχία.

"Για παράδειγμα, τα σχολεία charter έχουν διαπιστωθεί ότι έχουν πολύ αυστηρότερες πειθαρχικές πολιτικές", προσθέτει ο Richardson. "Τα παιδιά σε αυτό το περιβάλλον θα αντιμετωπίζονται πολύ διαφορετικά από ένα ιδιωτικό ιδιωτικό σχολείο υψηλού επιπέδου και ακόμη και σε διαφορετικά δημόσια σχολεία.

"Η προσπάθεια να κατανοήσουμε πολύ περίπλοκα ζητήματα που έχουν μυριάδες εισροών και εφαρμόζοντας μια τεχνολογική λύση που αντικατοπτρίζει μια φρενίτιδα είναι ένα πρόβλημα επειδή μπορεί είτε να επαναλάβει τα ίδια προβλήματα που βλέπουμε στην κοινωνία είτε να δημιουργήσουμε μια λύση για ένα πρόβλημα που δεν υπάρχει εκεί. "

Ο Richardson δηλώνει ότι υπάρχει άλλη ανησυχία ότι ακόμα και αν το πρόγραμμα AI έχει αναπτυχθεί με τις καλύτερες προθέσεις, μπορεί να καταλήξει να χρησιμοποιηθεί με τρόπους που δεν προβλέπουν οι δημιουργοί του.

"Μόλις καταλήξετε σε αυτά τα εργαλεία", λέει, "δεν είναι σαν να συνεχίζετε να ελέγχετε τον τρόπο με τον οποίο υλοποιούνται ή πώς θα συνεχίσουν να επηρεάζουν την κοινωνία γενικά".

Μπορεί η τεχνητή νοημοσύνη να βοηθήσει να σταματήσει το σχολικό σουτ;