Интересно ИИ лучше распознает ложь

daddydwarf

Support
Seller
Мес†ный
Регистрация
12 Июн 2019
Сообщения
1.873
Репутация
537
Реакции
1.072

Работа, которая будет опубликована в журнале Management Science, посвящена изучению способности участников распознавать ложь в популярном британском телешоу «Золотые шары», которое выходило в эфир с 2007 по 2010 год. Во время этого шоу игроки случайно выбирали «золотые шары» либо с крупными денежными суммами, либо со словом «killer». Если игрок с таким шаром проходил в следующий раунд, то сумма выигрыша у всех участников уменьшалась в 10 раз. Общий призовой фонд игры мог достигать 100 тысяч фунтов.

Каждый игрок пытался повысить свой выигрыш в том числе с помощью ложной информации о содержимом своих шаров, которые ему выпали в первых раундах. А другие пытались угадать лжет их соперник или говорит правду, чтобы исключить «killer» и пропустить в новый раунд игроков с крупными суммами, поскольку в последнем раунде, когда игроков оставалось двое, между ними делилась вся сумма.

На основе этого шоу был построен дата-сет и проведено машинное обучение. Авторы работы обнаружили, что участники эксперимента с трудом определяют, когда лгут игроки. Алгоритмы работают гораздо лучше.
«Мы обнаружили, что есть определенные признаки того, что человек говорит правду», — говорит Марта Серра-Гарсия, ведущий автор исследования. «Например, если человек выглядит чуть счастливее, вероятно, он не лжет. Есть и другие визуальные, вербальные, голосовые сигналы, которыми мы, люди, делимся, когда говорим правду. Алгоритмы лучше справляются с выявлением этих признаков».


Если кто-то чуть счастливее, значит, он говорит правду.


Если кто-то чуть счастливее, значит, он говорит правду. Алгоритмы, использованные в исследовании, достигли впечатляющей точности. Они правильно предсказали поведение конкурсантов в 74% случаев, по сравнению с точностью 51%-53%, достигнутой более чем 600 участников эксперимента.

Добрый помощник​

Помимо сравнения способностей машинного обучения и человека по выявлению обмана, в исследовании проверялось, можно ли использовать алгоритмы, чтобы помочь людям лучше различать тех, кто лжет.

Участница игры «Золотые шары».


Участница игры «Золотые шары».

В одном из экспериментов две разные группы участников эксперимента смотрели один и тот же набор эпизодов «Золотых шаров». В одной группе перед просмотром некоторые изображенные на видео участники игры были помечены особым флажком, который поставил алгоритм. Флажок указывал на то, что, по мнению алгоритма, участник, скорее всего, лжет. Другая группа смотрела то же самое видео, и только после просмотра им сообщали, что значат флажки на видео. Участники с высокой вероятностью доверяли пометкам алгоритма и в итоге лучше предсказывали ложь, если получали сообщение о значении флажка до просмотра.

Как бороться с дезинформацией​

Соавтор исследования Ури Гнизи, профессор поведенческой экономики говорит: «Наше исследование показывает, что онлайн-платформы могут повысить эффективность своих систем, давая алгоритмические предупреждения о характере контента. Это может замедлить или даже исключить распространение дезинформации».
Ученые отмечают, что преимущество машинной разметки потенциально ложного контента в ее скорости и простоте. Сегодня некоторые платформы пытаются размечать или пессимизировать заведомо ложный контент, но, как правило, это дорого и долго, поскольку требует участия человека. Источник.
 
Назад
Сверху Снизу