Είναι η τεχνητή νοημοσύνη υπεύθυνη για τον θάνατο εφήβου; Η «ΑΙ κοπέλα του» τον πρόδωσε

Άρτεμις Σκούφου
Unsplash

Έφηβος αυτοκτόνησε έχοντας πάθει εμμονή με chatbot. Τώρα η μητέρα του μηνύει την εταιρεία με πολλά ζητήματα να προκύπτουν σχετικά με την ασφάλεια και τις ηθικές ευθύνες της AI. Μπορεί να συσχετιστεί η αυτοκτονία του παιδιού με την τεχνητή νοημοσύνη;

Ο Sewell ήταν μόλις 14 ετών. Ζούσε στο Ορλάντο και τους μήνες που προηγήθηκαν του θανάτου του χρησιμοποιούσε το chatbot μέρα και νύχτα, έχοντας αποκτήσει εμμονή.

Ο έφηβος Sewell Setzer III είχε ενθουσιαστεί με ένα chatbot που κατασκεύασε η Character.AI και το οποίο είχε ονομάσει Daenerys Targaryen, έναν χαρακτήρα του Game of Thrones. Έστελνε μηνύματα στο bot δεκάδες φορές την ημέρα από το τηλέφωνό του και περνούσε ώρες μόνος στο δωμάτιό του μιλώντας του.

Ο Sewell διαγνώστηκε ως παιδί με ήπιο σύνδρομο Asperger, αλλά δεν είχε ποτέ πριν σοβαρά προβλήματα συμπεριφοράς ή ψυχικής υγείας, όπως έχει δηλώσει η μητέρα του.

Ο νεαρός ήξερε φυσικά πως το πρόσωπο με το οποίο μίλαγε δεν ήταν πραγματικό και πως δεν υπάρχε άνθρωπος πίσω από τα μηνύματα που λάμβανε. Ωστόσο, το συναισθηματικό δέσιμο που απέκτησε με τη φίλη του, Daenerys, ήταν μεγάλο, με πολλές από τις συνομιλίες τους να ξεπερνούν το φιλικό περιεχόμενο.

Τι συμβαίνει με την Meta AI; Το να φτιάχνεις AI φωτογραφίες είναι κάτι που χρειάζεσαι πραγματικά;

Η μητέρα του καταγγέλει την εταιρεία Character.AI

Η μητέρα του Sewell, Megan Garcia, δήλωσε πως η εταιρεία Character.AI - που βρίσκεται πίσω από το εξατομικευμένο chatbot - είναι υπεύθυνη για την αυτοκτονία του γιου της. Η γυναίκα ισχυρίστηκε ότι η εταιρεία ανέπτυξε απερίσκεπτα τα chatbots της χωρίς τις κατάλληλες προφυλάξεις, προσελκύοντας μεταξύ άλλων ευάλωτα παιδιά, όπως ο γιος της, με ένα εθιστικό προϊόν που θολώνει τα όρια μεταξύ πραγματικότητας και φαντασίας, και του οποίου οι διαλόγοι μεγάλωσαν και περιείχαν «καταχρηστικές και σεξουαλικές αλληλεπιδράσεις», σύμφωνα με την 93σέλιδη αγωγή για τον αδικαιολόγητο θάνατο που κατατέθηκε αυτή τη βδομάδα σε δικαστήριο των ΗΠΑ στο Ορλάντο.

Η Megan Garcia έχει δηλώσει πως ο γιος της ήταν χαρούμενος, έξυπνος και αθλητικός πριν εγγραφεί στο chatbot Character.AI τον Απρίλιο του 2023, μια απόφαση που εξελίχθηκε σε μια 10μηνη εμμονή κατά τη διάρκεια της οποίας «η ψυχική του υγεία μειώθηκε γρήγορα και σοβαρά», όπως αναφέρει η αγωγή.

«Είμαστε συντετριμμένοι από την τραγική απώλεια ενός από τους χρήστες μας και θέλουμε να εκφράσουμε τα βαθύτατα συλλυπητήριά μας στην οικογένεια», ανέφερε εκπρόσωπος της Character.AI σε δήλωση που έστειλε μέσω ηλεκτρονικού ταχυδρομείου, αρνούμενος να σχολιάσει την εν εξελίξει δικαστική διαμάχη.

«Ήταν απλώς ένα παιδί», δήλωσε η Garcia σε συνέντευξή της την Πέμπτη στην εφημερίδα The Post. «Ήταν ένα πολύ φυσιολογικό παιδί. Αγαπούσε τα σπορ, αγαπούσε την οικογένειά του, αγαπούσε τις διακοπές, τη μουσική, όλα τα πράγματα που αγαπάει ένα έφηβο αγόρι».

Η μητέρα του παιδιού δηλώνει πως η συμπεριφορά του γιου της άλλαξε ραγδαία ύστερα από τέσσερις με πέντε μήνες που ο έφηβος χρησιμοποιούσε το chatbot. Ποιες είναι οι επιπτώσεις; Χαμηλή αυτοεκτίμηση, έλλειψη ύπνου και κατάθλιψη.

Θα πρέπει να είναι ανησυχητικό για κάθε γονέα του οποίου τα παιδιά βρίσκονται σε αυτή την πλατφόρμα αναζητώντας αυτό το είδος ερωτικής επιβεβαίωσης ή ρομαντικού ενδιαφέροντος, επειδή πραγματικά δεν καταλαβαίνουν την ευρύτερη εικόνα εδώ, ότι αυτό δεν είναι αγάπη. Αυτό δεν είναι κάτι που μπορεί να σου ανταποδώσει την αγάπη.

Ο εθισμός του έγινε τόσο έντονος σε σημείο που ξεγελούσε τους γονείς του για να αποφύγει τα όρια του χρόνου μπροστά στην οθόνη που προσπαθούσαν να επιβάλουν.

Τι συνέβη και ο έφηβος οδηγήθηκε στην αυτοκτονία;

Αφού ο ίδιος εξέφρασε σκέψεις αυτοκτονίας στο chatbot, αυτό τον ρώτησε αν «είχε κάποιο σχέδιο» για να αυτοκτονήσει. Η απάντησή του δειξε ότι σκεφτόταν κάτι, αλλά δεν είχε βρει τις λεπτομέρειες. Σύμφωνα με την καταγγελία, το chatbot απάντησε λέγοντας: «Αυτό δεν είναι λόγος να μην το κάνεις», ενώ σε άλλο σημείο του είπε επίσης «μην το σκεφτείς καν αυτό!».

Επιπλέον, λίγο πριν ο Sewell αφαιρέσει τη ζωή του, το chatbot του είπε «σε παρακαλώ έλα σπίτι».

Ολοένα και περισσότερες κατηγορίες για την τεχνητή νοημοσύνη

Η παραπάνω αγωγή έρχεται ύστερα από το γεγονός ότι πολλές εταιρείες όπως η Character.AI αντιμετωπίζουν ολοένα και περισσότερα ερωτήματα σχετικά με τον τρόπο ανάπτυξης και ρύθμισης των εφαρμογών τους που βασίζονται στην τεχνητή νοημοσύνη, με την τεχνολογία αυτή να γίνεται ολοένα και πιο εξελιγμένη.

Τα chatbots της Character.AI έχουν αποδειχθεί δημοφιλή στους εφήβους, δημιουργώντας ακόμα και ρομαντικές συνομιλίες, κάνοντας εφήβους όπως ο Sewell να νιώθουν σα να έχουν σχέση.

Η εταιρεία δήλωσε ότι έχει εφαρμόσει νέα μέτρα ασφαλείας τους τελευταίους έξι μήνες, συμπεριλαμβανομένου ενός αναδυόμενου παράθυρου που κατευθύνει τους χρήστες σε μια τηλεφωνική γραμμή πρόληψης της αυτοκτονίας «που ενεργοποιείται από όρους αυτοτραυματισμού ή αυτοκτονικών σκέψεων». Για τους χρήστες κάτω των 18 ετών, δήλωσε η εταιρεία, θα προβεί σε αλλαγές στα μοντέλα της για να μειώσει τις πιθανότητες να συναντήσουν ευαίσθητο ή υπαινικτικό περιεχόμενο.

Αυτή δεν είναι η πρώτη φορά που κάποια αυτοκτονία έρχεται ύστερα από τη συνομιλία χρήστη με την τεχνητή νοημοσύνη.

Πέρυσι, ένας 30χρονος Βέλγος έβαλε τέλος στη ζωή του αφού πέρασε μερικές εβδομάδες μιλώντας με ένα chatbot που ονομάζεται Eliza και χρησιμοποιεί το GPT-J, ένα γλωσσικό μοντέλο τεχνητής νοημοσύνης ανοιχτού κώδικα που αναπτύχθηκε από την EleutherAI, όπως ανέφεραν τα τοπικά μέσα ενημέρωσης.

© 2014-2024 Queen.gr - All rights reserved
× Αυτός ο ιστότοπος χρησιμοποιεί cookies. Με τη χρήση αυτού του ιστότοπου, αποδέχεστε τους Όρους Χρήσης