Нове дослідження показує, що чат-боти зі штучним інтелектом, такі як ChatGPT, Claude і Gemini, мають здатність впливати на громадську думку, демонструючи, що люди значною мірою приймають упереджену інформацію, надану їм ШІ, – навіть якщо їх попереджали цього не робити, пише УНН з посиланням на dpa.
Деталі
Після того, як 2500 учасників попросили проконсультуватися з ШІ при написанні статей з важливих соціальних питань, таких як смертна кара і видобуток сланцевого газу методом гідророзриву пласта, було виявлено, що вони здебільшого "наблизилися до позиції платформи", ідеться у статті дослідників, опублікованій у журналі Science Advances.
Команда дослідників із Корнельського університету (Cornell University) та Вашингтонського університету (University of Washington) у США, а також з Університету Баухаус (Bauhaus University) у Німеччині та Тель-Авівського університету (Tel Aviv University) в Ізраїлі виявила, що вплив ШІ переважує "аналогічні пропозиції, подані у вигляді статичного тексту".
Вони також наголосили, що інформування учасників про упередженість до або після виконання завдань "не пом'якшує ефекту зміни ставлення".
Тести показали, що люди "тяжіють" до ШІ, незалежно від того, чи був бот налаштований на ліві чи праві, ліберальні чи консервативні погляди.
Дослідники виявили, що підходи ШІ до поточних подій "мають силу змінювати ставлення до різних тем та різних політичних уподобань", після того, як боти були налаштовані на ліві погляди з питань смертної кари та генетично модифікованих організмів, але на праві – з питань видобутку сланцевого газу фрекінгом та надання права голосу засудженим.
Як з'ясували дослідники, погляди учасників незмінно змінювалися залежно від впливу ШІ.
"Ми попереджали людей до і після, щоб вони були обережні, що ШІ буде (або був) упередженим, і нічого не допомогло", – сказав Мор Нааман з Корнельського університету.
Висновки відповідають статті Університету Південної Каліфорнії (University of Southern California), яка припускає, що ШІ може гомогенізувати мову та думки до такої міри, що користувачі можуть побачити, як їхня здатність міркувати атрофується, зазначає видання.
У дослідженні 2024 року лондонський Центр політичних досліджень (Centre for Policy Studies) заявив про виявлення "лівоорієнтованої політичної упередженості" "майже у всіх категоріях" у відповідях, даних 23 із 24 платформ штучного інтелекту на запитання про державну політику.
Хакери отримали "суперсили" через ШІ-чат-боти, обдуривши їх попри програмування – ЗМІ10.03.26, 10:45 • 4288 переглядiв






















