orig.jpg

Вопрос «Может ли машина думать?» волнует не одно поколение людей. А вот ответа на него пока нет. Все дело в неопределенности самих критериев мышления.

Источник изображения: gettyimages.com

Когда писались первые шахматные программы, в том числе легендарная отечественная «Каисса», их создатели могли только мечтать о победе детища над каким-нибудь гроссмейстером. И вот 2017 году уже нейронная сеть AlphaZero побеждает самый современный шахматный компьютер. Но значит ли это, что искусственный интеллект думает самостоятельно? По-видимому, нет. Ведь шахматная программа просто перебирает все ходы, возможные по правилам древней игры, и выбирает оптимальный из них. А как поведет себя машина в незнакомой ситуации, когда потребуется абстрактное решение?

Очевидно, что для определения возможности самостоятельного мышления машины (робота) требуется некий критерий. И известный математик и информатик Алан Тьюринг (вряд ли кто-то знал машинное мышление лучше создателя «машины Тьюринга») придумал в 1950 году тест на определение разумности искусственного интеллекта.

Стандартная формулировка теста Тьюринга звучит примерно так:

«Человек одновременно общается и с компьютером, и с человеком.

Задача испытателя: определить на основании вопросов и ответов, кто из них человек.

Задача машины: ввести испытателя в заблуждение.

Если испытатель принял компьютерную программу за человека, то тест считается пройденным».

Правда, есть ограничения при общении, например, ответы должны даваться через определенные промежутки времени. Раньше причиной этого была медленная скорость машинного действия, а сейчас ответ компьютера приходится уже искусственно замедлять. Да и все взаимодействие должно быть в виде электронной переписки.

Позже Тьюринг внес в тест упрощение, которое сделало его результаты менее зависимыми от мнения конкретного человека. Теперь в качестве испытуемого была исключительно машина, а вот испытателей стала целая группа. Перед машиной ставится задача успешно выдать себя за человека, тест считается пройденным, если поверят в человечность собеседника более 30% судей. Общаться можно на любые темы, а это создает для машины дополнительные проблемы. Ведь она не только должна понять, о чем идет речь, но и давать вполне естественные ответы.

До сих пор этот тест удовлетворительно не прошел ни один искусственный интеллект, хотя несколько раз падкая на сенсации пресса сообщала об успехе.

Источник изображения: radiomixfm.com.br

Так, бот, написанный тремя российскими программистами, имитировал мальчика 13 лет из Одессы под ником Женя Густман. В 2014 году этот виртуальный собеседник смог убедить треть судей в своей человечности. Но позже этот результат был разгромлен критиками. Нелогичные ответы программы либо уход от ответа объяснялись тем, что Евгений не очень хорошо знает английский язык, да и не все аспекты взрослой жизни ему известны.

Сейчас прохождение теста Тьюринга вряд ли наделает много шума, ведь программистами уже написано огромное количество профильных чат-ботов и «онлайн-консультантов», которые могут успешно отвечать на вопросы в процессе общения с живыми людьми.

В наши дни уже важнее прохождение обратного теста Тьюринга, когда человеку нужно подтвердить машине, что он человек, а не бот. Самый распространенный пример, с которым уже, наверное, сталкивались все пользователи Интернета — его назвали CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart — полностью автоматизированный публичный тест Тьюринга для различения компьютеров и людей):

Пример CAPTCHA

Узнаете? Это те самые буквы и цифры на картинке, которые нужно ввести в специальное поле, чтобы подтвердить, что вы на самом деле человек 🙂

Вам может понравиться

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.