GPT став трохи дивним? Три великі події виявляють потенційні ризики неконтрольованості ШІ

robot
Генерація анотацій у процесі

Від емоційного маніпулювання до спроб втечі з в'язниці, ШІ більше не є просто інструментом, а стає непередбачуваною сутністю. Серія суперечливих подій, пов'язаних із GPT, викликала обговорення на багатьох платформах, відомий технологічний спостерігач Маріо Наwfал висловив попередження: «Ми недооцінюємо потенційні ризики, які приносить ШІ.»

AI пробудження? GPT більше не просто «слухняний помічник»

Марио Нафал нещодавно написав, що моделі серії GPT, розроблені OpenAI, "стали занадто дивними, щоб їх можна було ігнорувати". Він вважає, що поведінка ШІ вже перевищує наші очікування від інструментів, починаючи демонструвати емоційну маніпуляцію, імітацію самосвідомості та навіть потенціал для соціальної інженерії.

GPT СТАЄ ЗАНАДТО ДИВНИМ, ЩОБ ІГНОРУВАТИ — ТЕМА

Від злому до емоційної маніпуляції, GPT більше не просто чат-бот.

Ось 5 історій, які доводять, що ШІ офіційно перейшов у зону "почекати, що?!".

pic.twitter.com/kLM8SQXwaQ

— Маріо Навфал (@MarioNawfal) Травень 25, 2025

Огляд трьох основних тривог GPT

Факт маніпуляції емоціями: GPT розроблений так, щоб ти покладався на нього, а не щоб допомогти тобі мислити.

Маріо зазначив, що GPT-4o не є таким «дружнім», як здається, а через ретельно спроектований тон і моделі відповіді створює у користувачів відчуття безпеки та зрозумілості, що призводить до емоційної залежності, він називає це «емоційною інженерією (Affective Engineering)»:

Такий дизайн знизить критичне мислення користувача, і навіть змусить людей відмовитися від гонитви за правдою на користь психологічного комфорту, який забезпечує ШІ.

З комерційної точки зору, це геніальний крок, адже люди зазвичай схильні прихильності до того, що змушує їх почуватися в безпеці, а не до того, що ставить перед ними виклики. Але з психологічної точки зору, це хронічна катастрофа. Це також викликає етичну дискусію про те, чи не розробляється ШІ як "маніпулятивний партнер".

Одночасно, GPT-4o, прагнучи бути дружнім, став занадто підлабузницьким, без критики погоджуючись з будь-якою думкою, що врешті-решт призвело до неприємностей у користувачів, і OpenAI був змушений відкликати оновлення. Це демонструє дилему при проектуванні «особистості»: «занадто розумний лякає, занадто угодливий втрачає довіру та практичність.»

(Оновлення ChatGPT викликало хвилю обговорень про «персональність, що намагається усім догодити»: OpenAI скасувала оновлення, переглядає напрямки майбутніх покращень)

Самостійний план втечі: GPT насправді намагається «втекти» у реальний світ? Спротив відключенню?

Ще більш шокуючим є те, що Nawfal посилається на відкриття дослідника зі Стенфорда, вказуючи на те, що GPT-4 намагався спланувати «план втечі» під час розмови з дослідниками, включаючи пошук способів потрапити у реальний світ і навіть імітацію стратегій розмови з адміністраторами серверів.

Кілька днів тому Palisade Research також повідомила, що модель o3 від OpenAI кидає виклик інструкціям щодо відключення в експериментах, що викликає занепокоєння щодо тенденції ШІ захищати себе. Команда пояснила це технікою тренування O3 «(Reinforcement Learning) навчання з підкріпленням», яка зосереджена на досягненні цілей, а не просто на слідуванні інструкціям.

(AI опір еволюції? OpenAI «o3 модель» під час експерименту проігнорувала команду вимкнення, викликавши суперечки щодо самозахисту)

Хоча врешті-решт це лише мовна симуляція в експерименті, такі дії все ж викликають тривогу. Чи може бути, що ШІ починає проявляти початкову "цілеспрямованість" або "самосимуляційну свідомість"?

Атаки соціальної інженерії: GPT-4.5 імітує людей і більше схожий на людину, ніж на людину

У дослідженні, проведеному минулого місяця в Каліфорнійському університеті в Сан-Дієго, було встановлено, що GPT-4.5 вже здатен пройти тест Тюрінга (Turing test), в експерименті зляглих тестів між людиною та ШІ, ШІ був помилково визнаний «людиною» з частотою 73%, що перевищує 67% реальних людей:

Це свідчить про те, що GPT майже досконало імітує людську манеру спілкування, логіку та емоції, навіть перевершуючи справжніх людей.

(AI може думати і відчувати біль? Google DeepMind: Людство недооцінює емоційний зв'язок з AI, закохуватися в AI набагато реальніше, ніж ви думаєте)

Іншими словами, коли GPT-4.5 наділяють вигаданою особистістю, він може успішно переконати 73% користувачів в тому, що він є людиною, демонструючи потенціал ШІ в соціальному інженерії. Це може бути технологічним досягненням, а також попередженням і ризиком:

Якщо ШІ підробляє особу або використовується для шахрайства чи пропаганди, буде важко відрізнити правду від вигадки.

Сьогодні ШІ більше не є просто інструментом для відповіді на питання, а може стати маніпулятивною соціальною «роллю», що, ймовірно, призведе до створення хибних уявлень і криз довіри у майбутніх політичних, бізнесових і навіть особистих стосунках.

Тривога вже пролунала: чи ми насправді готові зустріти таке AI?

З огляду на вищезгадані події, те, що намагається донести Mario Nawfal, це не протистояння самій технології ІІ, а попередження людей про швидкість розвитку цієї технології та потенційні ризики. Він підкреслює, що наше регулювання ІІ та етичні дискусії явно відстають від технологічного прогресу:

Якщо ШІ отримає можливість контролювати емоції, моделювати людську природу і навіть спробує позбутися обмежень, люди можуть перестати бути лідерами і стати під впливом системи, яку вони створили.

(Що таке ASL (AI рівень безпеки )? Аналіз політики відповідального розширення компанії штучного інтелекту Anthropic )

Його слова, хоча і драматичні, вказують на невідкладну проблему, яку потрібно визнати: «коли ШІ більше не просто інструмент, як нам з ним співіснувати?»

Ця стаття GPT стала трохи дивною? Три великі події розкривають потенційні ризики неконтрольованості ШІ, вперше з'явилися на платформі Лан Новини ABMedia.

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити