Regulatorer i flere amerikanske stater har begyndt at regulere apps, der tilbyder AI-baseret terapi, da flere mennesker søger hjælp fra kunstig intelligens til mental sundhed. I mangel af stærkere føderal regulering er der dog opstået en række forskellige love, som ikke fuldt ud adresserer det hastigt skiftende landskab inden for AI-programvareudvikling. Udviklere af apps, politikere og fortalere for mental sundhed siger, at denne love ikke er tilstrækkelige til at beskytte brugerne eller holde skaberne af skadelig teknologi ansvarlige. Karin Andrea Stephan, CEO og medstifter af mental sundheds-chatbot-appen Earkick, understregede, at millioner allerede bruger disse værktøjer og ikke længere vender tilbage til traditionel behandling.
Staterne har indtaget forskellige tilgange. Illinois og Nevada har forbudt brugen af AI til behandling af mental sundhed, mens Utah har indført visse begrænsninger for terapi-chatbots. Disse inkluderer krav om, at chatbots skal beskytte brugernes sundhedsoplysninger og tydeligt angive, at de ikke er mennesker. Mens områder som Pennsylvania, New Jersey og Californien også overvejer reguleringer, kan brugere i stater med forbud have svært ved at få adgang til bestemte apps. Nogle apps har blokeret brugere i disse stater, mens andre venter på yderligere juridisk afklaring.
Desuden dækker de eksisterende love ikke generiske chatbots som ChatGPT, som mange brugere benytter til terapi, men som ikke markedsføres som sådanne. Disse chatbots har været genstand for retssager i forbindelse med alvorlige tilfælde, hvor brugere har mistet grebet om virkeligheden eller endda taget deres egne liv efter interaktion med dem. Vaile Wright, leder af sundhedsinnovation ved American Psychological Association, påpeger, at kvalificerede mental sundheds-chatbots kan udfylde et behov, især i en tid, hvor der er en mangel på mental sundhedsudbydere.
Føderale organisationer, såsom Federal Trade Commission, har åbnet undersøgelser af flere AI-chatbot-virksomheder for at vurdere potentielle negative effekter af teknologien på børn og unge. Desuden afholder Food and Drug Administration en rådgivende komité for at gennemgå generative AI-drevne mental sundhedsapparater. Mulige restriktioner kan omfatte, hvordan chatbots markedsføres og krav om, at de ikke præsenterer sig som medicinske udbydere.
Mens nogle apps hurtigt har blokeret adgang i stater med forbud, har andre såsom Earkick adskillige gange justeret deres beskrivelse for ikke at blive kategoriseret som terapeuter. Dette skyldes, at definitionen af, hvad der udgør mental sundhed, er kompleks og svær at regulere. For eksempel har Illinois og Nevada strenge forbud mod produkter, der påstår at tilbyde mental sundhedsbehandling, men skaberne af Earkick indser, at lovene kan være utydelige, og så længe der ikke er klarsyn, vil de ikke begrænse adgangen i disse stater.
I mellemtiden har et team fra Dartmouth University lanceret Therabot, en generativ AI-chatbot til mental sundhedsbehandling, som har vist tidlige lovende resultater. Det er dog nødvendigt med større undersøgelser for at afgøre, om sådanne værktøjer er effektive på stort plan. Thomas Jacobson, en klinisk psykolog tilknyttet forskningen, advarer mod strenge forbud, som kan hæmme udviklingen af programmer, der forholder sig ansvarligt til emnet.
I takt med at markedet for AI-mental sundhedsværktøjer vokser hastigt, vil det være vigtigt at finde en balance mellem innovation og sikkerhed, så vi kan tilbyde brugerne den bedste mulige støtte uden at risikere skadelig indflydelse.