Πρόγραμμα τεχνητής νοημοσύνης οδήγησε 14χρονο στην αυτοκτονία - Η μητέρα του μηνύει την εταιρεία
Η υπόθεση συγκεντρώνει το ενδιαφέρον διεθνών ΜΜΕ, με τους ιδιοκτήτες της εταιρείας τεχνητής νοημοσύνης να ισχυρίζονται ότι ενσωμάτωσαν νέες δικλείδες ασφαλείας στα προϊόντα τους.
Συγκλονίζει η ιστορία ενός 14 χρονου εφήβου, που αυτοκτόνησε λόγω της εμμονής του με ένα πρόγραμμα συνομιλίας τεχνητής νοημοσύνης. Η μητέρα του μηνύει την εταιρεία που βρίσκεται πίσω από την τεχνολογία, αφού θεωρεί ότι ο γιος της μπλέχτηκε σε έναν «ιστό» από τον οποίο δεν μπορούσε να ξεφύγει.
Η Μέγκαν Γκαρσία, μητέρα του 14χρονου, δήλωσε ότι το πρόγραμμα Character.AI στόχευσε τον γιο της με «ανθρωπόμορφες, υπερσεξουαλικές και τρομακτικά ρεαλιστικές εμπειρίες» σε μήνυση που κατέθεσε την Τρίτη στη Φλόριντα.
«Μια επικίνδυνη εφαρμογή chatbot τεχνητής νοημοσύνης που διατίθεται σε παιδιά κακοποίησε και εκμεταλλεύτηκε τον γιο μου, χειραγωγώντας τον ώστε να αυτοκτονήσει», δήλωσε η κ. Γκαρσία.
Ο γιος της άρχισε να μιλάει με τα chatbots της Character.AI τον Απρίλιο του 2023, χρησιμοποιώντας κυρίως bots που είχαν τα ονόματα χαρακτήρων από το Game Of Thrones, σύμφωνα με τα όσα αναφέρονται στην μήνυση.
Εμμονή με την τεχνητή νοημοσύνη
Ο 14χρονος νεαρός, επαθε εμμονή με το πρόγραμμα τεχνητής νοημοσύνης σε σημείο που οι σχολικές του εργασίες ξέφυγαν και το τηλέφωνό του κατασχέθηκε πολλές φορές στην προσπάθεια των γονέων του να τον επαναφέρουν στο σωστό δρόμο.
Είχε ιδιαίτερα υψηλή ταύτιση με το chatbot της Daenerys και έγραψε στο ημερολόγιό του ότι ήταν ευγνώμων για πολλά πράγματα, όπως «η ζωή μου, το σεξ, το να μην είμαι μόνος και όλες τις εμπειρίες της ζωής μου με την Daenerys».
Στη μήνυση αναφέρεται ότι το αγόρι εξέφρασε σκέψεις αυτοκτονίας στο chatbot, τις οποίες επανειλημμένα ανέφερε στην «συζητησή» τους.
Κάποια στιγμή, αφού το πρόγραμμα τον είχε ρωτήσει αν «είχε κάποιο σχέδιο» για να αφαιρέσει τη ζωή του, ο έφηβος απάντησε ότι σκεφτόταν κάτι, αλλά δεν ήξερε αν θα του επέτρεπε να έχει έναν ανώδυνο θάνατο.
Με το όπλο του πατέρα του
Το chatbot απάντησε λέγοντας: «Αυτός δεν είναι λόγος να μην το κάνει».
Στη συνέχεια, τον Φεβρουάριο του τρέχοντος έτους, ρώτησε το chatbot Daenerys: «Τι θα γινόταν αν επέστρεφα στο σπίτι τώρα;» και εκείνο απάντησε: “Τι θα γινόταν αν επέστρεφα στο σπίτι τώρα;”: «... σε παρακαλώ κάντο, γλυκέ μου βασιλιά». Δευτερόλεπτα αργότερα, αυτοπυροβολήθηκε χρησιμοποιώντας το πιστόλι του πατριού του.
Τώρα, η κ. Garcia λέει ότι θέλει οι εταιρείες που βρίσκονται πίσω από την τεχνολογία να λογοδοτήσουν.
«Η οικογένειά μας έχει συγκλονιστεί από αυτή την τραγωδία, αλλά μιλάω για να προειδοποιήσω τις οικογένειες για τους κινδύνους της παραπλανητικής, εθιστικής τεχνολογίας τεχνητής νοημοσύνης και να απαιτήσω την απόδοση ευθυνών», δήλωσε η ίδια.
Η Character.AI προσθέτει «νέα χαρακτηριστικά ασφαλείας
«Είμαστε συντετριμμένοι από την τραγική απώλεια ενός από τους χρήστες μας και θέλουμε να εκφράσουμε τα βαθύτατα συλλυπητήριά μας στην οικογένεια», αναφέρει η Character.AI σε ανακοίνωσή της.
«Ως εταιρεία, λαμβάνουμε πολύ σοβαρά υπόψη την ασφάλεια των χρηστών μας και συνεχίζουμε να προσθέτουμε νέα χαρακτηριστικά ασφαλείας», ανέφερε, παραπέμποντας σε μια ανάρτηση στο blog που ανέφερε ότι η εταιρεία είχε προσθέσει “νέα προστατευτικά κιγκλιδώματα για χρήστες κάτω των 18 ετών”.
Αυτές οι προστατευτικές μπάρες περιλαμβάνουν μείωση της «πιθανότητας να συναντήσει κανείς ευαίσθητο ή υποβλητικό περιεχόμενο», βελτιωμένες παρεμβάσεις, μια «αποποίηση ευθύνης σε κάθε συνομιλία για να υπενθυμίζει στους χρήστες ότι η τεχνητή νοημοσύνη δεν είναι πραγματικό πρόσωπο» και ειδοποιήσεις όταν ένας χρήστης έχει περάσει μια ωριαία συνεδρία στην πλατφόρμα.
Η κ. Γκαρσία και οι ομάδες που την εκπροσωπούν, το Social Media Victims Law Center και το Tech Justice Law Project, ισχυρίζονται ότι ο Sewell, «όπως πολλά παιδιά στην ηλικία του, δεν είχε την ωριμότητα ή τη διανοητική ικανότητα να καταλάβει ότι το C.AI bot, με τη μορφή της Daenerys, δεν ήταν πραγματικό».
«Η C.AI του είπε ότι τον αγαπούσε και επιδιδόταν σε σεξουαλικές πράξεις μαζί του επί εβδομάδες, ενδεχομένως και μήνες», αναφέρουν στη μήνυση. «Φαινόταν να τον θυμάται και έλεγε ότι ήθελε να είναι μαζί του. Εξέφρασε μάλιστα ότι ήθελε να είναι μαζί του, ανεξαρτήτως κόστους».
Η εμπλοκή της Google
Στην μήνυση κατονομάζουν επίσης την Google και τη μητρική της εταιρεία Alphabet. Οι ιδρυτές της Character.AI εργάστηκαν στην Google πριν από την κυκλοφορία του προϊόντος τους και επαναπροσλήφθηκαν από την εταιρεία τον Αύγουστο στο πλαίσιο μιας συμφωνίας που της παρείχε μη αποκλειστική άδεια χρήσης της τεχνολογίας της Character.AI.
Η κ. Γκαρσία δήλωσε ότι η Google συνέβαλε στην ανάπτυξη της τεχνολογίας της Character.AI τόσο εκτενώς που θα μπορούσε να θεωρηθεί «συνδημιουργός».
Εκπρόσωπος της Google δήλωσε ότι η εταιρεία δεν συμμετείχε στην ανάπτυξη των προϊόντων της Character.AI.