Илон Маск заявил, что уже в 2025 году ИИ превзойдет человеческий интеллект. Почему этого не случится даже в этом веке

Через год-два автомобили Tesla станут полностью беспилотными, в следующем году ИИ превзойдет человеческий интеллект, а к 2040 году миллиарды роботов будут трудиться вместо людей. И это только заявления, сделанные Илоном Маском в этом году. Сейчас вся информационная сфера вокруг ИИ переполнена подобными прогнозами и обещаниями.

Кажется, что качественное развитие ИИ уже набрало такой ход, что его уже не остановить. А вот так ли всё, как нам говорят? Давайте посмотрим на ИИ с позиции здорового скептицизма. Сейчас я вижу не только блестящие перспективы, но и серьёзные препятствия, которые в принципе могут поставить под вопрос дальнейшее развитие ИИ. Почему? Ну, давайте разберёмся, как это работает.

Как обучается ИИ?

Представьте себе маленького ребенка который только начинает познавать мир. Он впитывает информацию, как губка. Например, он видит собаку, слышит её лай, щупает её шерсть — так постепенно у него формируется понятие "собака".

Искусственный интеллект учится примерно так же. Ему "скармливают" огромные массивы данных — это могут быть фотографии, тексты, звуки, видео. Анализируя эту информацию, ИИ начинает находить в них закономерности, связи, паттерны и учится выполнять различные задачи: распознавать лица, переводить и писать тексты, создавать картины и даже водить машину.

В основе современного ИИ лежат алгоритмы глубокого обучения и нейронные сети. Это сложные математические модели, которые имитируют работу человеческого мозга. Они представляют собой множество связанных между собой "нейронов", каждый из которых обрабатывает небольшую часть информации. В процессе обучения эти нейроны настраиваются, чтобы находить всё более сложные закономерности в данных.

Казалось бы, чем больше данных "скормить" ИИ, тем умнее он станет. Но тут мы сталкиваемся с интересным феноменом – принципом убывающей отдачи. Увеличение объёма данных не всегда приводит к пропорциональному увеличению эффективности ИИ

Допустим, мы хотим научить ИИ различать кошек и собак. На первом этапе, добавив сотню фотографий, мы получим заметный результат (точность в определении составит, например, 60%). Если увеличить количество фотографий для обучения в два раза, то точность определения составит 65%, если еще раз удвоим количество изображений, то результат будет 67,5%. Чтобы добиться увеличения точности еще на 30%, потребуются уже миллиарды изображений.

Почему так происходит? Тут две главные причины

  • Очевидные закономерности быстро исчерпываются. Дело в том, что ИИ быстро находит очевидные закономерности в небольшом объёме данных. Но по мере роста массива данных ему становится всё сложнее отыскать новые, неочевидные связи.
  • — увеличение "шума" в данных: чем больше данных, тем больше вероятность появления ошибок, неточностей, противоречий. ИИ приходится затрачивать все больше ресурсов на фильтрацию этого "шума", что замедляет его обучение.

Но это ещё не всё. Обучение ИИ – это ооочень энергозатратный процесс. И чем больше данных для обучения ИИ, тем больше вычислительных мощностей требуется для их обработки. Это как с мышцами: чем больше тренируешься и наращиваешь мышечную массу, тем больше энергии тратишь.

Вот тут мы подходим к ещё одному ограничению: рост объёма данных приводит к экспоненциальному росту потребления энергии.

Вспомним ChatGPT от OpenAI. По оценкам экспертов, при обучении ChatGPT3 использовался массив обучающих данных примерно в 78 раз больше, чем для обучения ChatGPT2 и это привело к качественному скачку. ChatGPT4 использует в 571 раз больше данных, чем ChatGPT3. Результат? Да, он стал лучше, но ChatGPT4 всё равно имеет существенные недостатки: допускает ошибки, галлюцинирует, выдумывает факты и не всегда понимает контекст.

По некоторым оценкам, набор обучающих данных ChatGPT4 составляет 45 ТБ текста. Это значит, чтобы следующая модель стала настолько же лучше, как ChatGPT4 по сравнению с ChatGPT3, то набор обучающих данных должен составлять десятки тысяч ТБ. Получить и подготовить такое количество текстовых данных — серьёзная проблема.

А обучение продвинутого ИИ, приближенного или превосходящего интеллект человека, потребует столько энергии, что генеральный директор OpenAI Сэм Альтман всерьёз заявил о необходимости прорыва в энергетике, такого как термоядерный синтез. Только вот, даже если мы действительно откроем ядерному синтезу, то получение такой энергии вряд ли в этом столетии или даже в 22 веке будет дешевле, чем при уже имеющихся технологиях.

Учёные из Университета Массачусетса подсчитали, что для создания ИИ, распознающего изображения с точностью 95%, потребуется $100 миллиардов и столько же электроэнергии, сколько потребляет Нью-Йорк за месяц.

А ведь 5% ошибок — это все еще критичный показатель ошибок, например, для беспилотного автомобиля. Получается, что Tesla, с её нынешним подходом, вряд ли сможет создать по-настоящему беспилотные автомобили. ИИ просто не потянет такую задачу.

Так что же дальше?

Ну, не так уж всё пессимистично. На горизонте появляются новые технологии, которые могут помочь в обучении ИИ. Это могут быть, например, квантовые компьютеры. Еще учёные работают над новыми архитектурами ИИ, которые смогут обучаться на меньшем объёме данных и эффективнее использовать вычислительные ресурсы. Но пока все эти решения находятся в зачаточном состоянии, и до их использования на практике, возможно, пройдут еще десятилетия.

Так что в ближайшие несколько лет ИИ вряд ли оправдает заявленные футуристами ожидания.

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.

Что будем искать? Например,Человек