Вам нужно назвать всего одно слово, чтобы доказать, что вы не робот. Каким оно будет?

Культура
1 год назад

Еще в 1950 году Алан Тьюринг придумал тест, который был призван отличить робота от человека. В то время еще и не подозревали, что в XXI веке можно будет попросить поискового ассистента на смартфоне найти что угодно, а искусственный интеллект сможет писать песни и оценивать популярность ваших будущих постов в Instagram.

В наше время ученые пошли дальше и провели эксперимент, который назвали "Минимальным тестом Тьюринга". Участникам нужно было представить, что они стоят перед неким судьей на пару с роботом. Судья не знает, кто есть кто, но должен убить робота. Чтобы доказать, что вы не машина, предлагалось выбрать одно слово, которое и будет сказано судье. Мы в ADME решили реализовать и свою версию эксперимента, результаты которой ждут вас во второй половине статьи.

Как проходил эксперимент и какие слова лидировали?

Ученые сначала опросили около 1 000 участников в режиме онлайн. Самыми популярными на этой стадии эксперимента были слова, связанные с эмоциями: «любовь», «спасибо» (около 2,7 %). Часто называли абстрактные эмоции, еду, слова «Бог» и «Иисус», роботов и животных, семью. На пике популярности — слова «душа», «человек», «пожалуйста».

Были и необычные слова, выдуманные выражения, сленг, сокращения: yolo, noob, oops, lol, omg, huh?. Не обошлось и без «терминатора».

Ученые подчеркнули, что назвать «Минимальный тест Тьюринга» безопасным сложно, ведь он в действительности вряд ли помог бы судье определить, кто человек, а кто робот, с высокой точностью. Опросив 1 000 участников, авторы эксперимента пошли дальше и попросили новых испытуемых оценить пары слов, которые были сформированы из ответов. Стояла задача опознать, какое слово из пары сказал человек, а какое сгенерировал робот или искусственный интеллект (участники эксперимента не знали, что оба слова в паре были сказаны человеком). Самым «человечным» после оценки таких пар оказалось слово «какашка» — poop.

Мы решили повторить этот эксперимент

Так как в оригинальном эксперименте участвовали только англоязычные участники, мы повторили его с русскоязычной аудиторией, чтобы сравнить результаты. Для этого опросили около 70 человек. К тому же мы решили посмотреть, как будет меняться настрой участников, если судья с первого раза им не поверит и ситуация накалится. Мы немного изменили условия эксперимента: нашим испытуемым было предложено 3 шанса вместо одного.

Самыми частыми ответами среди опрошенной аудитории стали выдуманные слова: «грустечувствительный», «паникопроводимость». Эти слова вряд ли есть даже в самой широкой базе робота, так как они не зафиксированы в словарях, но их смысл мы в целом можем уловить. Были и выдуманные слова, смысл которых пришлось расшифровывать: «Я бы назвала слово „курмымзлик“. Это наше семейное слово, обозначает человека, который выглядит примерно как обиженный суслик, промокший под дождем». Один из участников предложил выдуманное Довлатовым слово «абанамат».

Не менее активно предлагали слова с уменьшительно-ласкательными суффиксами — с учетом того, что робот, скорее всего, их использовать не будет: «огогошеньки», «печалька». Активно называли и еду, причем тоже с суффиксами: «картошечка», «шашлычок». Среди совпавших с англоязычной аудиторией слов были самые популярные варианты из оригинального эксперимента: «любовь», «душа», «мама», «воображение».

Многие уже на второй-третьей попытке предполагали, что скажут что-то нецензурное (некоторые участники даже собирались сделать выдуманное выражение из нескольких нецензурных слов, предполагая, что непристойные выражения все-таки есть в базе искусственного интеллекта).

Некоторые участники эксперимента делали ставку не только на смысл сказанного, но и на эмоциональность, которую они будут при этом выражать:

  • «Ткнула бы в робота пальцем, пристально посмотрела в глаза судье и сказала: „Фальшивка!“ И сделала бы это так, как ни один робот не смог бы: эмоционально».
  • «Как вариант — „апчхи!“. Я начинаю говорить: „Понимаете, ваша честь... Апчхи!.. Я хотел сказать...“ Судья: „Не продолжайте, дело закрыто!“»

Многие просто озвучивали слова с эмоциональным окрасом («обалдеть», «жрать», «голодомор») или просто вопросительные слова («посадите?», «подписаться?»). Некоторые выбирали выражения, которые значат что-то именно для них: «Я бы назвала свой город», «Назвала бы свое имя», «Я бы назвала имя человека, которого люблю. Хотя нет... Имя своего кота. Да».

Было и несколько человек, которые выбрали просто молчать. Один из участников объяснил это тем, что робот не сможет ослушаться приказа судьи (если он так запрограммирован, конечно), поэтому он в любом случае что-то скажет. А молчание докажет судье, что перед ним человек. Другой участник эксперимента выбрал молчание просто потому, что бесполезно было бы что-то говорить судье, потому что нынешний искусственный интеллект можно научить и нецензурным выражениям, и выдуманным словам, и вообще чему угодно.

Один из участников на третий раз сказал бы слово «Станиславский» (если бы судья отвечал «не верю» на предыдущие варианты ответа). Хоть у робота в базе, скорее всего, и была бы эта фамилия, но не факт, что он завернул бы такую логическую цепочку, и был бы шанс на спасение. Другой участник третьим вариантом сказал бы слово «вред», аргументируя это тем, что робот не стал бы называть заведомо проигрышное слово. Он бы генерировал только лучшие варианты, и таким образом судья мог бы понять, кто именно человек.

В конце эксперимента ученые подчеркнули, что его можно использовать для проверки других стереотипов. Какое слово, по мнению людей, скажет женщина или старик? Несмотря на развитие искусственного интеллекта, который сегодня, кажется, способен на что угодно, участники и англоязычного, и нашего эксперимента смогли придумать варианты, которые даже самый умный робот не смог бы назвать. Не так легко выдумать слово или составить выражение из нескольких существующих, которое будет восприниматься на слух и иметь смысл. С другой стороны, если бы нужно было называть только слова из словаря, отличить человека от умного робота было бы практически невозможно. В таком случае, лучше было бы подобрать другие методы проверки.

И самое интересное! Что в такой ситуации сказали бы вы?

Комментарии

Уведомления

Мне кажется, идеальный вариант - чтобы судья сказал "Произнести какое-нибудь длинное слово задом-наперёд". Например, "штангенциркуль". Робот или ИИ сделает это сразу, а человеку придётся попотеть) Тут не сразу прочитаешь даже "Лукрицнегнатш"

-
-
Ответить

судья: - игриво предложи жене сидра - « любимушка, тебе начерпать пузырюшкино? »

-
-
Ответить

Ну, если по совсем жестким условиям эксперимента, то я бы, извините, пукнула (а это же не считается словом) и сказала "извините". Робот, может, и смог бы воспроизвести звук, но вот сопуствующее вышеописанному действу - вряд ли. Даже если робот полностью идентичен человеку, изобретать пукающего робота... или потеющего? Оно надо?
И да, конечно же, мне бы потребовались усилия как физические, так и моральные, чтобы сделать это прилюдно. Надеюсь, судья будет достаточно внимательным, чтобы заметить это. Да, способ совсем не эстетичный, но когда речь заходит о спасении собственной шкуры - a la guerre comme a la guerre.

-
-
Ответить