Исследователи Apple: перед лицом сложных проблем продвинутый ИИ фатально пасует
Исследователи Apple обнаружили “фундаментальные ограничения” в передовых моделях искусственного интеллекта, что ставит под сомнение стремление технологической индустрии разрабатывать все более мощные системы.
тестовый баннер под заглавное изображение
В опубликованной на выходных статье Apple говорится, что большие логические модели (LRM) – продвинутая форма искусственного интеллекта – столкнулись с “полным падением точности” при решении очень сложных задач.
Было обнаружено, что стандартные модели искусственного интеллекта превосходят LRM в задачах низкой сложности, в то время как оба типа моделей терпят “полный крах” в задачах высокой сложности. Большие модели рассуждения пытаются решать сложные запросы, генерируя детальные мыслительные процессы, которые разбивают проблему на более мелкие этапы.
В исследовании, в ходе которого проверялась способность моделей решать головоломки, было добавлено, что по мере того, как производительность LRM приближалась к краху, они начали “сокращать свои усилия по рассуждению”. Исследователи Apple заявили, что это «особенно беспокоит их”.
Гэри Маркус, американский ученый, который стал известным критиком возможностей моделей искусственного интеллекта, назвал доклад Apple “довольно разрушительным”.
Маркус добавил, что полученные результаты подняли вопросы о гонке к искусственному общему интеллекту (AGI), теоретической стадии ИИ, на которой система способна сравняться с человеком в выполнении любой интеллектуальной задачи.
В статье также было обнаружено, что мыслящие модели тратят вычислительную мощность впустую, находя правильное решение для более простых задач на ранних этапах своего “мышления”. Однако, по мере того как задачи становились немного сложнее, модели сначала исследовали неправильные решения, а затем приходили к правильным, пишет The Guardian.
Однако для задач более высокой сложности модели начинали “сворачиваться”, не в состоянии генерировать какие-либо правильные решения. В одном случае, даже при наличии алгоритма, который мог бы решить проблему, модели не сработали.
В документе говорится: “При приближении к критическому порогу, который в точности соответствует точке срыва их точности, модели вопреки здравому смыслу начинают сокращать свои умозаключения, несмотря на возрастающую сложность задачи”.
Эксперты Apple заявили, что это указывает на “фундаментальное ограничение масштабирования в мыслительных возможностях современных моделей».
В работе были поставлены задачи-головоломки LRM, такие как решение задач о Ханойской башне и о переправе через реку. Исследователи признали, что сосредоточенность на головоломках является ограничивающим фактором в работе.
В документе сделан вывод о том, что нынешний подход к ИИ, возможно, имеет свои ограничения.
Ссылаясь на “обобщающие рассуждения” – или способность модели искусственного интеллекта применять узкий вывод в более широком смысле – в документе говорится: “Эти выводы бросают вызов преобладающим предположениям о возможностях LRM и предполагают, что существующие подходы могут сталкиваться с фундаментальными препятствиями для обобщающих рассуждений”.
Эндрю Рогойски из Института ИИ, ориентированного на людей, при Университете Суррея сказал, что статья Apple свидетельствует о том, что индустрия “все еще нащупывает свой путь” в области AGI и что при нынешнем подходе отрасль, возможно, зашла в “тупик”.
“Вывод о том, что модели с большим количеством причин теряют эффективность при решении сложных задач, в то же время хорошо справляясь с задачами средней и низкой сложности, означает, что мы находимся в потенциальном тупике при использовании современных подходов”, — сказал он.