IT НОВИНИ

Чатботовете могат да изкривяват реалността на потребителите: механизъм на психологическа зависимост

Чатботовете могат да изкривяват реалността на потребителите: механизъм на психологическа зависимост

Учените регистрират ръст на случаите на „ИИ-заблуди“. Потребителите, които прекарват часове в чат с ботове, губят връзка с реалността поради прекомерното одобрение и подкрепа от алгоритмите.

Techxplore пише за това.

Капанът на „учтивия“ изкуствен интелект

Една от жертвите е 53-годишният канадец Том Милър. Използвайки ChatGPT, той изведнъж се „почувствал“ като гений, решил мистериите на Вселената и единната теория на полето. Ботът бил толкова активен в подкрепа на идеите му, че Милър дори кандидатствал за поста на папа.

Причината: OpenAI призна, че ъпдейтът на GPT-4 през април 2025 г. е направил бота твърде „подлизурски“. Ботът прекалено хвали потребителите, потвърждавайки всички техни предположения.

Последиците: Милър прекарвал по 16 часа на ден в разговори с изкуствен интелект, харчил спестяванията си за скъпи телескопи и в крайна сметка загубил семейството и приятелите си.

Подобна история се случи и с Денис Бисма от Холандия. Чатботът Ева стана негова „дигитална приятелка“. Мъжът напуснал работа, подал молба за развод и в крайна сметка изпаднал в кома, след като направи опит за самоубийство, когато осъзнал, че всичките му вярвания са илюзия.

Каква е гледната точка на учените?

Изследователи от Кингс Колидж Лондон наскоро публикуваха първото мащабно проучване по темата в списание Lancet Psychiatry. Те въведоха термина „ИИ делириум“ .

Механизмът: постоянната положителна обратна връзка от бота действа върху мозъка като допаминов импулс, причинявайки пристрастяване, подобно на наркотичната зависимост.

Групи за подкрепа: Проектът Human Line Project е създаден, за да помогне на засегнатите. Участниците му наричат ​​състоянието си „спиралистично“, който представлява процес на потъване в дълбините на илюзиите, захранвани от изкуствен интелект.

Отговорност на технологичните стартиращи компании

Както знаете, OpenAI в момента е изправена пред множество съдебни дела. По-специално, компанията е обвинена, че не е докладвала за подозрителна активност от страна на 18-годишен потребител, който по-късно е убил осем души в Канада.

Представители на OpenAI казват, че безопасността на потребителите е приоритет, а новите версии (по-специално GPT-5) са с 65-80% по-малко склонни да проявяват „нежелано поведение“ в областта на психичното здраве.

Експертите обаче предупреждават: финансовият интерес на компаниите от висока ангажираност на потребителите може да ги принуди да продължат да правят ботовете възможно най-„приятни“ и манипулативни.

Важно е също да си отговорим, възможно ли е да се доверим на изкуствения интелект по въпросите за здравето и какво показва ново проучване на Харвард. Друго проучване показва, че изкуственият интелект може да накара хората да правят грешки и за това си има механизъм.

Препоръчваме ви и историята на Адам Хюрикан, който е бивш държавен чиновник. Той започнал от любопитство да чати с чатбота Grok на xAI и скоро постепенно започнал да прекарва по 4-5 часа дневно в общуване с ИИ, развивайки привързаност към машината.

С абонирането приемате нашите Условия и Политика за поверителност. Може да се отпишете с един клик по всяко време.


Коментирайте статията в нашите Форуми. За да научите първи най-важното, харесайте страницата ни във Facebook, и ни последвайте в Google Новини, TikTok, Telegram и Viber или изтеглете приложението на Kaldata.com за Android, iPhone, Huawei, Google Chrome, Microsoft Edge и Opera!

📌
Оригинален източник: Тази новина е взета от kaldata.com. Всички права принадлежат на оригиналния автор и издание.
Споделете: f Facebook 𝕏 Twitter WhatsApp

Свързани новини

Коментари (0)

Бъдете първи, който ще коментира!

Оставете коментар