Профессор Марвин Мински, один из самых известных в мире специалистов по ИИ, критикует результаты последних исследований в этой области. По его мнению, за 30 лет, начиная с середины 70-х гг., ученые не сделали ничего значительного. Может быть, они слишком увлеклись методами математики, статистики и забыли о нейросетях?
Марвин Мински - известный американский ученый, лауреат премии Тьюринга 1969 года, медали института Бенджамина Франклина 2001 года, обладатель патентов на головной графический дисплей (1963) и конфокальный сканирующий микроскоп (1961). Известность ему в 60-е годы принесла книга "Персептроны", ставшая фундаментальной для последующих разработок в области искусственных нейронных сетей. В 80-е гг. Мински и Гуд показали, как нейросети могут самореплицироваться в соответствии с произвольной обучающей программой. По этой теории, искусственный разум может быть выращен очень похожим на развитие человеческого мозга образом, а интеллект может быть продуктом взаимодействия не обладающих интеллектуальностью частей.
Недавно 80-летний профессор выступил с лекциями на тему искусственного интеллекта, где довольно критично высказался о современных исследованиях в этом направлении. Выступление можно скачать в виде трех MP3-файлов: 21, 25 и 13 минут (informationweek.com/news/showArticle.jhtml?articleID=197700609). Здесь мы кратко изложим основные тезисы, которые затронул гуру.
Марвин Мински отмечает, что в последнее время в научных разработках на тему искусственного интеллекта значительно снизилось влияние альтернативных подходов, таких как нейросети и генетические алгоритмы (эволюционный отбор). Исследователи вернулись к более традиционным направлениям, но за тридцать лет не сделали значительного шага по направлению к искусственному интеллекту так называемого "общего предназначения", обладающего здравым смыслом. Прогресс в этом направлении практически остановился в середине 70-х. Никого не должно обманывать появление специализированных программ с отдельными внешними признаками искусственного интеллекта, таких как программы для оптического распознавания символов, чтения текста и т.д. Исследователи применяют математические методы для разработки ИИ, но эти методы практически непригодны для создания "настоящего" ИИ, который умеет решать проблемы на основе опыта.
Профессор критикует современное академическое образование, когда студенты годами конструируют и ремонтируют роботов, - но здесь нет никакой науки. По оценке Мински, этим глупыми вещами занимаются около 40 000 студентов по всему миру. А вот серьезных специалистов по ИИ совсем немного.
Марвин Мински говорит о разных аспектах разработки ИИ, в том числе о значении игровых программ. Он и сам давно увлекался этим. В 1957 году при его участии была создана программа для игры в шашки, а в 1963 она победила чемпиона штата Коннектикут и при этом обладала возможностью самообучения и подстраивалась под игроков (настолько, что после игры с плохими игроками она и сама начинала играть хуже). Когда разработчики нашли базу партий и загрузили ее в машину, она стала практически непобедимой. С тех пор прошло 40 лет, появились сверхбыстрые суперкомпьютеры, а ученые в области искусственного интеллекта продолжают совершенствовать различные игровые программы. Кроме того, начались эксперименты в виртуальных мирах.
Виртуальные миры очень важны для развития ИИ. Дело в том, что реальный мир довольно скучен, с точки зрения искусственного интеллекта, из-за своей бессмысленности, тогда как в виртуальном пространстве каждый объект имеет конкретное назначение.
Марвин Мински весьма критически относится и к эволюционным методам создания ИИ (генетические алгоритмы не оставляют записей о причинах, почему неудачники умирают в процессе естественного отбора), и к статистическим методам (их легко реализовать и они работают в программах самообучения, но в перспективе это тупиковый путь). Тем не менее, профессор искренне верит, что компьютеры вполне могут обладать интеллектом. "У людей много объяснений, почему компьютеры не могут думать, но все эти объяснения глупые", - уверен Марвин Мински. Например, говорят, что компьютер не может знать смысла своих поступков. Но ведь это философская проблема, пусть философы и ищут ответ. Многие люди тоже не знают смысла своих поступков. Еще более смешным выглядит тезис о наличии самосознания, потому что люди сами еще не совсем понимают, что такое самосознание: это одна из тайн мозга.
Для реализации настоящего ИИ, по Мински, нужно использовать одновременно несколько методов хранения и обработки информации, в том числе нейросети, математическую логику (в редких ситуациях для важных зависимостей), нечеткую логику и реляционные базы данных.
Многие вещи можно позаимствовать из конструкции человеческого мозга. Например, недавно ученые обнаружили странные эффекты "пост-обучения" в мозге. Оказывается, у человека результаты тестирования значительно улучшаются на второй и на третий день после сеанса обучения, хотя никакого дополнительного обучения уже не было, при этом критическим фактором для улучшения результатов является количество часов сна: шесть или восемь. Вообще, в человеческом мозге нет единого центра контроля: каждую задачу решают относительно независимые отдельные маленькие участки (их около 400), которые имеют до 30 связей с другими, а некоторые вообще изолированы. Ученым предстоит еще многое узнать о принципах работы человеческого мозга, и эти сведения можно использовать для построения ИИ.
Впрочем, при этом нужно понимать, что люди привыкли называть "искусственным интеллектом" то, что еще не создано. Как только мы что-то создаем (будь то распознавание объектов или распознавание речи), мы сразу перестаем называть это ИИ.
Всем, кого интересуют исследования в области ИИ, профессор Марвин Мински предлагает прочитать свою последнюю книгу "Машина эмоций", которая вышла из печати в прошлом году. Кстати, черновики всех глав из этой книги выложены на личном сайте профессора (web.media.mit.edu/~minsky).
Анатолий АЛИЗАР
Горячие темы