Два бота, разработанных для игры Unreal Tournament, уверенно прошли модифицированный тест Тьюринга — причём с бóльшим успехом, чем тестировавшиеся вместе с ними люди.
Сразу отметём сомнения: прохождение столь специфичного варианта теста Тьюринга, как шутер в Deathmatch-режиме, ещё не означает, что искусственный интеллект (ИИ) достиг человеческого уровня или хотя бы приблизился к нему. Зато оно точно свидетельствует, что способность ботов вводить в заблуждение как минимум в некоторых областях уже превзошла человеческую. По сути, программы не старались сделать ничего, только мимикрировали, подражая поведению живых игроков в Unreal Tournament 2004. Авторы бота UT^2 Ристо Мииккулайнен, Якоб Шрум и Игорь Карпов (все — из Университета Техаса в Остине) уже подготовили препринт публикации, в которой обсуждают детали такой мимикрии. По сути, она сводится к «человеческой, слишком человеческой» стратегии умеренно агрессивной игры.
«Слишком человеческой» — это не гипербола. Многочисленные боты и люди играли на одной карте «все против всех» на условиях полной анонимности. Более чем в 50% случаев боты были определены как люди всеми четырьмя «органическими» судьями. В то же время игравшие люди не были оценены как люди с такой же частой: более чем в половине случаев посчитали их ботами. Интересно, что и UT^2, и сходный по идеологии Mirrorbot разработки Михая Полчеану (Румыния) набрали в нынешнем тесте Тьюринга вдвое больше голосов судей-людей, чем лучшие предыдущие боты. Конкурс в котором они участвовали, BotPrize, проводится с 2008 года; десятки ботов пытались убедить людей в своей человечности, но не преуспели (2010 год).
Обе команды не просто получили по £4 500: их разработки уже в ближайшее время могут быть использованы в компьютерных играх для имитации более реалистичного, «человеческого» поведения ИИ. Более того, такие «человекоботы» даже не потребуют существенных мощностей от игроцких ПК (в отличие от сегодняшних ботов). Дело в том, что при встрече с человеком Mirrorbot просто наблюдает за его поведением и копирует его, включая перемещения, стрельбу, выбор оружия, прыжки и ужимки.
Как отмечает автор Mirrorbot, факт успешности его творения небеспечален. «Этот результат может означать, что наше восприятие разума не без изъянов и в значительной степени подвержено влиянию нашей социальной природы», — полагает г-н Полчеану. Действительно, повторявший на манер обезьяны бот, даже не пытавшийся делать что-либо, кроме копирования того, что он видел у встреченного человека, оказался эффективнее несовершенных, но старавшихся самостоятельно «думать» предшественников.
UT^2 не столь саркастичен в отношении человеческого разума. По мнению его программистов, «нечеловеческое» поведение ботов обычно объясняется тем, что их «смущают» препятствия (скажем, стены). Например, человек, выходя из двери, точно знает, куда смотреть: привычка, выработанная годами. А Unreal-боты, как правило, разворачиваются на 90˚. И если там находится небольшой выступ стены, то даже лучшие ИИ будут безуспешно подбегать и отбегать от него, не в силах пройти дальше.
Словом, техасцы изучили то, как человек поступает в различных переходах из одного помещения в другое и различных средах. А потому их бот просто копирует человеческую тактику «в среднем», не доходя до «обезьянничания» по отношению к каждому встречному, подобно произведению румынского программиста. Кроме того, если отдельная стратегия оказывается успешнее, то UT^2 последовательно реализует её и впредь. Интересно, что копирующий структуру мозга человека Neurobot занял лишь четвёртое место, не только не преодолев 50-процентного барьера опознания в качестве «человека», но и не превысив достижений прошлых лет со своими 26% успешности мимикрии под человека.
Источник