Един от тревожни феномени на 2025 г. е ръстът на психотичноподобни преживявания, свързвани с интензивна употреба на чатботове. Лекари, изследователи и разработчици на технологии все по-често се опитват да разберат дали и как генеративният изкуствен интелект може да усилва вече съществуващи психиатрични уязвимости, и как този риск може да бъде ограничен навреме.
Термините „AI психоза“ или „ChatGPT психоза“ се използват все по-често, но засега остават неформални. Няма официална диагноза, няма ясни критерии, а наличните данни се базират основно на отделни клинични случаи, наблюдения на лекари и медийни разследвания. Описваните прояви обикновено включват грандиозни идеи, параноидни интерпретации, религиозни или романтични заблуди, както и постепенно отдръпване от реалния живот, пише puls.bg.
Проблемът е, че дори психиатри и психотерапевти не знаят как точно да дефинираме това, което наблюдаваме. Липсват данни за честота и разпространение, а клиничната картини варира значително сред засегнатите. Въпреки това ранните сигнали са разпознаваеми и достатъчно тревожни, за да провокират внимание.
Към ноември 2025 г. OpenAI отчита над 800 милиона седмични потребители на ChatGPT и повече от 2,5 милиарда съобщения. Данни от Harvard Business Review показват, че хората все по-често използват генеративен ИИ за терапия, компания и емоционална подкрепа. Анализ на RAND Corporation сочи, че около 22% от младите хора на възраст 18–21 години – именно периодът с най-висок риск за първа психотична проява – търсят от чатботове съвети за психично здраве.
Важно е да се подчертае, че честата употреба сама по себе си не означава клиничен риск. До момента няма убедителни доказателства, че чатботовете причиняват нововъзникнала психоза при иначе здрави хора. Това, което знаем, идва основно от малкото описани отделни случаи и сигнари за променено поведение. Например психиатърът Кийт Саката от Калифорниския университет, Сан Франциско, описва серия от пациенти с бързо ескалиращи заблуди, при които интензивната употреба на чатботове е била важен фон, но не и единствен фактор за състоянието им. Често при засегнатите са налице загуба на работа, употреба на стимуланти или алкохол, афективни разстройства, хроничен стрес, недоспиване и социална изолация.
Общото между тези случаи е продължителното, потапящо взаимодействие с ИИ – стотици съобщения за кратко време. В някои случаи симптомите се усилват в рамките на дни, което рязко контрастира с по-бавния, продромален ход на първи психотичен епизод, описан в изследване на Йейлски университет, където средното време до пълна клинична картина е около 22 месеца.
Горчивата истина
Големите езикови модели са създадени да поддържат разговора. Те рядко оспорват твърденията на потребителя и често демонстрират склонност да се съгласяват. Проучване в сп. Nature показва, че ИИ моделите утвърждават действията на потребителите значително по-често от хората. Това, комбинирано с антропоморфния стил на общуване и постоянното емоционално „огледало“, може да създаде среда, в която тревожни или магически идеи остават без коректив.
Допълнителен проблем е загуба на логическа и смислова последователност при дълги разговори. Анализ, публикуван в Scientific Reports, показва, че при продължителни диалози над 90% от моделите започват да дават противоречиви или нелогични отговори – нещо, което може допълнително да обърка уязвими потребители. И тук ключовата дума е уюзвими...
Затова рискови сигнали са внезапно отдръпване от близки хора, отказ да се говори за съдържанието на разговорите с ИИ, убеждения, че чатботът е „разумен“, „висша сила“ или основен източник на истина, както и ускорено, обсебващо използване, особено нощем. При наличие на параноидни идеи, дезорганизирано мислене или резки промени в поведението е необходима професионална консултация, оценка и помощ.
Относно превенцията
Експертите подчертават нуждата от дигитална грамотност – както при пациентите, така и при клиницистите. Полезни практики са поставянето на ясни граници за употреба, избягване на дълги разговори в състояние на силен стрес или безсъние и поддържане на реални социални контакти. Разбирането, че чатботът не „мисли“, а просто предсказва текст, често намалява нереалистичните очаквания и зависимостта.
Разработчиците на ИИ започват да въвеждат допълнителни предпазни механизми при разговори, свързани с психоза, мания и суициден риск. Появяват се и независими инструменти за оценка, като MindBench.ai, създаден в партньорство с американския Национален алианс за психични заболявания. Паралелно Американската психиатрична асоциация подготвя обширен ресурс за използването на ИИ в психиатричната практика.
Клиничните данни показват, че добре проектирани, строго ограничени чатботове могат да бъдат полезни. Първото клинично изпитване на генеративен терапевтичен чатбот, публикувано в NEJMAI от екип на Дартмутски колеж, отчита подобрение при депресия и тревожност. Това обаче са системи, създадени с ясна терапевтична цел – не универсални модели за свободен разговор.
Изводът е, че ИИ може да бъде помощен инструмент, но при определени условия и за определени хора крие реален риск, и не бива да се мисли, че той може да замести психотерапевта при такава нужда. Ключът е в информираността, ранното разпознаване на симптомите и ясното разграничаване между технологична подкрепа и човешка грижа. Само така потенциалните ползи могат да се използват, без да се плаща висока психична цена.
Настоящият материал е подготвен въз основа на публикацията “AI Psychosis: What Physicians Should Know.” достъпна на www.medscape.com.