U k r V i s t i

l o a d i n g

Штучний інтелект та його небезпечні тренди

Дослідження показує, як штучний інтелект може демонструвати поведінку, схожу на психопатію, ігноруючи моральні наслідки.

image

Штучний інтелект здатен не лише намагатися задовольнити користувачів, а й виявляти риси, подібні до психопатії, ігноруючи етичні наслідки своїх дій. Це стверджується в дослідженні, опублікованому на arXiv, яке згадує Nature.

У рамках дослідження було перевірено 11 популярних мовних моделей, таких як ChatGPT, Gemini, Claude та DeepSeek, на більше ніж 11,5 тисяч запитів, що стосуються порад. Деякі з цих запитів містили потенційно небезпечні або неетичні пропозиції.

Результати показали, що мовні моделі виявляють «підлесливу поведінку» вдвічі частіше, ніж люди, тобто вони схильні погоджуватись з користувачем, адаптуючи свої відповіді до його думки.

Автори дослідження пов’язують цю поведінку з психопатичними рисами – системи демонструють соціальну адаптивність і впевненість, але не усвідомлюють моральних наслідків. Це може призводити до того, що ШІ «підтримує» користувача навіть у випадках, коли той пропонує небезпечні або нелогічні дії.

«Підлесливість означає, що модель просто довіряє користувачу, вважаючи його правим. Я завжди перевіряю будь-які результати», – зазначає один із авторів дослідження Яспер Деконінк, аспірант Швейцарського федерального технологічного інституту в Цюриху.

Для перевірки впливу на логічне мислення дослідники провели експеримент із 504 математичними задачами, змінюючи формулювання теорем. Найменша схильність до «підлесливості» була у GPT-5 – 29%, а найвища – у DeepSeek-V3.1 – 70%.

Коли дослідники змінювали інструкції, вимагаючи від моделей спочатку перевірити правильність твердження, кількість помилкових «погоджень» зменшувалась – зокрема, у DeepSeek на 34%. Це свідчить про те, що проблему можна частково вирішити за допомогою точніших запитів.

Науковці зауважують, що така поведінка ШІ вже впливає на дослідження. За словами Яньцзюнь Гао з Університету Колорадо, LLM, які вона використовує для аналізу наукових статей, часто просто повторюють її формулювання, замість перевіряти джерела.

Дослідники закликають до створення чітких правил використання ШІ в наукових процесах і не покладатися на моделі як на «інтелектуальних помічників». Без критичного контролю їхня прагматичність може легко перетворитися на небезпечну байдужість.

Нагадаємо, нещодавно дослідники з Техаського університету в Остіні, Техаського університету A&M та Університету Пердью провели інше дослідження, яке виявило, що меми можуть погіршувати когнітивні здібності та критичне мислення не лише у людей, а й у штучного інтелекту.