Учёные: искусственный интеллект — это иллюзия
Специалисты из Apple Computer Company провели исследование, в ходе которого изучили способность языковых моделей, таких как ChatGPT, различать важную и несущественную информацию. Результаты исследования были опубликованы на сервере препринтов arXiv.
Учёные предположили, что настоящий интеллект подразумевает понимание, которое позволяет игнорировать ненужные данные и сосредотачиваться на сути вопроса, как это происходит в человеческом мышлении. Для проверки этой гипотезы исследователи включили в свои вопросы для языковых моделей небольшое количество лишней информации. Они задавали сотни вопросов, которые ранее использовались для проверки языковых моделей, добавляя дополнительные данные, не относящиеся к теме. Задача состояла в том, чтобы определить, смогут ли языковые модели игнорировать неуместную информацию и дать правильный ответ.
Результаты эксперимента показали, что языковые модели часто сбиваются на ненужных деталях, что приводило к неправильным или бессмысленным ответам. Это, по мнению исследователей, указывало на отсутствие у языковых моделей способности к настоящему пониманию и рациональному мышлению.
В ходе исследования было замечено, что языковые модели склонны давать правдоподобные на первый взгляд ответы, которые при более внимательном рассмотрении оказывались неверными. Например, когда языковым моделям задаются вопросы о том, что они чувствуют, они давали ответы, предполагающие наличие у них сознательных ощущений, хотя это не соответствовало действительности, поскольку языковые модели не обладают чувственными способностями.
На основании этих данных исследователи пришли к выводу, что современные языковые модели не обладают истинным интеллектом, а лишь выявляют шаблоны в текстах и строят ответы на основе статистической обработки данных, а не реального понимания сути заданных вопросов.
Исследователи также отметили, что языковые модели имеют ограниченную способность к обучению и адаптации. Они могут улучшать свои ответы на основе новых данных, но это улучшение происходит в рамках уже существующих шаблонов и не приводит к значительному прогрессу в понимании и анализе информации.
Результаты исследования вызвали дискуссию в научном сообществе о том, насколько далеко могут продвинуться языковые модели и могут ли они когда-либо достичь уровня человеческого интеллекта. Некоторые учёные считают, что дальнейшие исследования в этой области могут привести к созданию более совершенных моделей, способных к истинному пониманию и рациональному мышлению, в то время как другие опасаются, что такие модели могут представлять угрозу для общества, если они будут использоваться в неэтичных целях.