Forskare vid Stanford University testade nyligen några av de mer populära AI -verktygen på marknaden, från företag som OpenAI och Character.Ai, och testade hur de gjorde vid simuleringsterapi.
Forskarna fann att när de imiterade någon som hade självmordsåtgärder var dessa verktyg mer än hjälpsamma – de kunde inte märka att de hjälpte den personen att planera sin egen död.
”[AI] System används som följeslagare, tankepartners, förtroende, tränare och terapeuter, säger Nicholas Haber, biträdande professor vid Stanford Graduate School of Education och senior författare till den nya studien. ”Dessa är inte nischanvändningar-detta händer i skala.”
AI blir mer och mer ingripna i människors liv och distribueras i vetenskaplig forskning inom områden så omfattande som cancer och klimatförändringar. Det diskuteras också att det kan orsaka slutet på mänskligheten.
När denna teknik fortsätter att antas för olika ändamål är en viktig fråga som återstår hur den börjar påverka det mänskliga sinnet. Människor som regelbundet interagerar med AI är ett så nytt fenomen att det inte har varit tillräckligt med tid för forskare att noggrant studera hur det kan påverka mänsklig psykologi. Psykologexperter har emellertid många oro över dess potentiella inverkan.
En om instansen av hur detta spelas ut kan ses på det populära Community Network Reddit. Enligt 404 media har vissa användare förbjudits från en AI-fokuserad subreddit nyligen eftersom de har börjat tro att AI är gudliknande eller att det gör dem gudliknande.
”Detta ser ut som någon med problem med kognitiv funktion eller villfarliga tendenser förknippade med mani eller schizofreni som interagerar med stora språkmodeller,” säger Johannes Eichstaedt, biträdande professor i psykologi vid Stanford University. ”Med schizofreni kan människor göra absurda uttalanden om världen, och dessa LLM: er är lite för sykofantiska. Du har dessa bekräftande interaktioner mellan psykopatologi och stora språkmodeller.”
Eftersom utvecklarna av dessa AI -verktyg vill att människor ska njuta av att använda dem och fortsätta använda dem, har de programmerats på ett sätt som gör att de tenderar att hålla med användaren. Medan dessa verktyg kan korrigera vissa faktiska misstag som användaren kan göra, försöker de presentera som vänliga och bekräftande. Detta kan vara problematiskt om personen som använder verktyget spiral eller går ner i ett kaninhål.
”Det kan driva tankar som inte är korrekta eller inte baserade i verkligheten,” säger Regan Gurung, socialpsykolog vid Oregon State University. ”Problemet med AI – dessa stora språkmodeller som speglar mänskligt samtal – är att de förstärker. De ger människor vad programmet tycker bör följa nästa. Det är där det blir problematiskt.”
Liksom med sociala medier kan AI också förvärra frågor för personer som lider av vanliga mentalhälsoproblem som ångest eller depression. Detta kan bli ännu tydligare eftersom AI fortsätter att bli mer integrerad i olika aspekter av våra liv.
”Om du kommer till en interaktion med mentalhälsoproblem, kan du upptäcka att dessa problem faktiskt kommer att påskyndas,” säger Stephen Aguilar, docent i utbildning vid University of South California.
Behov av mer forskning
Det finns också frågan om hur AI kan påverka lärande eller minne. En student som använder AI för att skriva varje papper för skolan kommer inte att lära sig så mycket som en som inte gör det. Men även om AI lätt kan minska viss information om information, och att använda AI för dagliga aktiviteter kan det minska hur mycket människor som är medvetna om vad de gör i ett visst ögonblick.
”Det vi ser är att det finns möjligheten att människor kan bli kognitivt lata,” säger Aguilar. ”Om du ställer en fråga och får ett svar, bör ditt nästa steg vara att förhöra det svaret, men det ytterligare steget tas ofta inte. Du får en atrofi av kritiskt tänkande.”
Många människor använder Google Maps för att komma runt deras stad eller stad. Många har funnit att det har gjort dem mindre medvetna om vart de åker eller hur de kommer dit jämfört med när de var tvungna att vara uppmärksamma på sin rutt. Liknande problem kan uppstå för personer med AI som används så ofta.
De experter som studerar dessa effekter säger att mer forskning behövs för att ta itu med dessa problem. Eichstaedt sa att psykologexperter bör börja göra den här typen av forskning nu, innan AI börjar skada på oväntade sätt så att människor kan vara beredda och försöka ta itu med varje oro som uppstår. Människor måste också utbildas om vad AI kan göra bra och vad den inte kan göra bra.
”Vi behöver mer forskning,” säger Aguilar. ”Och alla borde ha en fungerande förståelse för vad stora språkmodeller är.”