Μπορεί η τεχνητή νοημοσύνη να αντικαταστήσει την ψυχοθεραπεία;
Μια διευθύντρια στην εταιρεία τεχνητής νοημοσύνης OpenAI προκάλεσε πρόσφατα σύγχυση γράφοντας ότι μόλις είχε “μια αρκετά συναισθηματική, προσωπική συζήτηση” με το viral chatbot ChatGPT της εταιρείας της.
Δεν έχω ξαναδοκιμάσει ποτέ ψυχοθεραπεία, αλλά πιθανότητα αυτό είναι; έγραψε η Λίλιαν Γουένγκ στο X, πρώην Twitter, προκαλώντας έναν χείμαρρο αρνητικών σχολίων που την κατηγορούσαν ότι υποβαθμίζει την ψυχική ασθένεια.
Ωστόσο, η άποψη της Γουένγκ για την αλληλεπίδρασή της με το ChatGPT μπορεί να εξηγηθεί από μια εκδοχή του φαινομένου placebo που περιγράφεται αυτή την εβδομάδα από έρευνα στο περιοδικό Nature Machine Intelligence.
Μια ομάδα από το Ινστιτούτο Τεχνολογίας της Μασαχουσέτης (MIT) και το Κρατικό Πανεπιστήμιο της Αριζόνα ζήτησε από περισσότερους από 300 συμμετέχοντες να αλληλεπιδράσουν με προγράμματα τεχνητής νοημοσύνης για την ψυχική υγεία και τους προετοίμασε για το τι να περιμένουν.
Σε ορισμένους είπαν ότι το chatbot ήταν ενσυναίσθητο, σε άλλους ότι ήταν χειριστικό και σε μια τρίτη ομάδα ότι ήταν ουδέτερο.
Εκείνοι στους οποίους είπαν ότι μιλούσαν με ένα στοργικό chatbot ήταν πολύ πιο πιθανό από τις άλλες ομάδες να θεωρήσουν τους θεραπευτές chatbot ως αξιόπιστους.
Από αυτή τη μελέτη, βλέπουμε ότι σε κάποιο βαθμό η τεχνητή νοημοσύνη είναι η τεχνητή νοημοσύνη του παρατηρητή, δήλωσαν οι ερευνητές.
Οι νεοσύστατες επιχειρήσεις προωθούν εδώ και χρόνια εφαρμογές AI που προσφέρουν ψυχοθεραπεία, συντροφιά και άλλη υποστήριξη ψυχικής υγείας – και είναι μεγάλη επιχείρηση. Αλλά ο τομέας παραμένει πεδίο αντιπαράθεσης.
Διαβάστε σχετικά: 3 πράγματα που πρέπει να γνωρίζετε πριν μιλήσετε με το ChatGPT για την ψυχική υγεία σας
«Παράξενο, άδειο»
Όπως και σε κάθε άλλο τομέα που η τεχνητή νοημοσύνη απειλεί να διαταράξει, οι επικριτές ανησυχούν ότι τα ρομπότ θα αντικαταστήσουν τελικά τους ανθρώπινους εργαζόμενους αντί να τους συμπληρώσουν.
Και με την ψυχική υγεία, η έγνοια είναι ότι τα ρομπότ είναι μάλλον απίθανο να κάνουν καλή δουλειά. Η θεραπεία αφορά στην ψυχική υγεία και είναι μία δύσκολη υπόθεση, έγραψε η Cher Scarlett, ακτιβίστρια και προγραμματίστρια, ως απάντηση στην αρχική ανάρτηση της Γουένγκ.
Επιτείνοντας τον γενικό φόβο για την τεχνητή νοημοσύνη, ορισμένες εφαρμογές στον τομέα της ψυχικής υγείας έχουν ένα κακόβουλο πρόσφατο ιστορικό.
Οι χρήστες της Replika, ενός δημοφιλούς AI companion που μερικές φορές πλασάρεται στην αγορά ως επωφελής για την ψυχική υγεία, έχουν παραπονεθεί εδώ και καιρό ότι το ρομπότ μπορεί να έχει εμμονή με το σεξ και να είναι καταχρηστικό.
Ξεχωριστά, μια αμερικανική μη κερδοσκοπική εταιρεία με την ονομασία Koko διεξήγαγε τον Φεβρουάριο ένα πείραμα με 4.000 άτομα που τους προσέφεραν συμβουλευτική με τη χρήση GPT-3, διαπιστώνοντας ότι οι αυτοματοποιημένες απαντήσεις απλώς δεν λειτουργούσαν ως θεραπεία.
Η προσομοιωμένη ενσυναίσθηση μοιάζει παράξενη, κενή, έγραψε ο συνιδρυτής της εταιρείας, Ρομπ Μόρις, στο X.
Τα ευρήματά του ήταν παρόμοια με τα ευρήματα των ερευνητών του MIT/Αριζόνα, οι οποίοι δήλωσαν ότι ορισμένοι συμμετέχοντες παρομοίαζαν την εμπειρία του chatbot με το να “μιλάς σε έναν τοίχο από τούβλα”.
Έρευνα: Pat Pataranutaporn et al, Influencing human–AI interaction by priming beliefs about AI can increase perceived trustworthiness, empathy and effectiveness, Nature Machine Intelligence (2023). DOI: 10.1038/s42256-023-00720-7
Απόδοση – Επιμέλεια: PsychologyNow.gr
Πηγή
*Απαγορεύεται ρητώς η αναπαραγωγή χωρίς προηγούμενη άδεια των υπευθύνων της ιστοσελίδας*