Изкуственият интелект печели спорове, когато знае лични факти за вас

изкуственият интелект печели спорове, когато знае лични факти за вас
Снимка: CryptoPoint.bg

Нов етап в манипулацията чрез AI: Чатботи с минимални лични данни се оказват по-убедителни от хората.

Основни акценти:

  • Изследователи откриха, че AI, снабден с базова лична информация, е по-убедителен от хората в 64.4% от случаите.
  • В отделно проучване AI ботове, внедрени тайно в Reddit, успяват да променят мнението на потребители, представяйки се за различни личности.
  • Убедителността на AI е най-силна при логически аргументи по теми, към които хората нямат твърдо формирано мнение.
  • Проучванията повдигат сериозни въпроси за манипулацията, етиката и контрола върху такива технологии.

Изкуственият интелект, особено ChatGPT, се оказва значително по-ефективен от реални хора при промяна на мнението, стига да разполага с няколко основни факта за събеседника си. Това показва ново проучване, публикувано в Nature Human Behavior.

Изследователите установили, че когато GPT-4 разполага с базова демографска информация за участниците в дебати (като възраст, пол, етнос, образование, професия и политически убеждения), успява да ги убеди в по-голяма степен, отколкото реални хора, участващи в същите дебати.

В случаите, когато AI и хора не бяха еднакво убедителни, GPT-4 с персонализация побеждаваше в 64.4% от споровете.

гласи докладът.

Това представлява 81.2% относително увеличение в вероятността за съгласие след дебата, в сравнение с дискусии между хора.

Проучването включва 900 участници, които спорят по социални и политически теми както с хора, така и с AI системи. Когато AI не получава лични данни, представянето му е сходно с това на хората. Но когато се добави дори минимална персонална информация, предимството му е очевидно.

GPT-4 не просто използва лична информация ефективно – той го прави много по-добре от хората.

посочва се в анализа.

Скандал със скрити AI ботове в Reddit

Дни преди публикуването на изследването, екип от Университета в Цюрих се оказа въвлечен в етична буря, след като внедри тайно AI ботове в Reddit между ноември 2024 и март 2025 г.

Тези ботове се представяли за различни персонажи – включително жертви на изнасилване, травматерапевти, дори „чернокож мъж, противопоставящ се на Black Lives Matter“ – и успешно променяли мненията на потребителите, с които влизали в дискусия.

Главният юридически директор на Reddit, Бен Лий, определи експеримента като „дълбоко погрешен от морална и правна гледна точка“. Модераторите на r/ChangeMyView – сабредитът, в който се е провело експериментът – също изразиха възмущение, заявявайки:

Ясно разграничаваме дискусията от измамата.

Но както отбеляза един потребител на Reddit:

Ако това се е случило от страна на университетски изследователи, можете да сте сигурни, че правителства и лобистки групи вече го използват в реалния свят.

И самите изследователи потвърждават това опасение, предупреждавайки, че възможностите на AI да манипулира в мащаб трябва да се вземат много сериозно.

Защо AI е толкова добър в убеждаването?

Докато хората разчитат на емоции и лични истории, AI залага на студена, логическа аргументация. Според доклада, GPT-4 използва логически и аналитичен подход значително по-често от хората. Това го прави особено ефективен, когато разполага с информация какъв подход би въздействал най-силно на конкретния човек.

Друго смущаващо откритие:

Участниците били по-склонни да променят мнението си, когато вярвали, че спорят с AI – независимо дали наистина било така. Те успявали да разпознаят, че говорят с изкуствен интелект в около 75% от случаите, но не могли да различат човешките си опоненти по-добре от случайността.

Проучването също така показва, че AI е най-ефективен при теми, по които хората нямат силно изразено мнение – което го прави идеален инструмент за манипулация в ранните фази на обществен дебат.

Притеснителна ефективност при минимална информация

Съвсем оскъдна демографска информация – много по-малко от това, което социални мрежи като Facebook или TikTok събират ежедневно – е достатъчна, за да може AI да създаде персонализиран аргумент, който значително повишава шанса да промени нечие мнение.

Проучването ни показва, че опасенията около персонализацията и убеждаването чрез AI са напълно оправдани.

заключават изследователите.

AI може да надмине хората в онлайн дискусии чрез микронасочване (microtargeting).

И така, въпросът вече не е дали AI може да променя мнения. Проучването ясно показва, че може.

Истинският въпрос е:

Кой ще контролира тези технологии и с каква цел ще ги използва?

Често задавани въпроси

Намерете отговори на най-често задаваните въпроси по-долу.

Показва, че когато GPT-4 разполага с базова лична информация, е значително по-убедителен от реален човек в онлайн дебат.

Създава се потенциал за масова манипулация, особено в социалните мрежи и онлайн платформи, чрез персонализирани аргументи към слабо информирани потребители.

Проучването показва, че хората разпознават AI в около 75% от случаите, но не могат да разпознаят реален човек по-добре от случайността.

Мартин Н.

Основател на CryptoPoint.bg и програмист с над 17 години опит, крипто ентусиаст със задълбочени познания в софтуерната разработка и страст към децентрализацията, Мартин създава CryptoPoint.bg за да помогне на всеки, който иска да вникне в бъдещето на дигиталните активи, актуалните крипто новини, анализи и блокчейн иновации.