Наука
456

Искусственный интеллект нередко оказывается фикцией

Вологда-поиск
Фото: Вологда-поиск

Такой вывод сделала группа ученых из Apple Computer Company. Исследователи провели сравнительный анализ крупных языковых моделей (LLM), в том числе ChatGPT.

Результаты оказались вполне лестными для живых людей. Оказалось, что эти системы только создают иллюзию интеллекта в своих ответах и предлагаемых решениях. Но никакой логики в них просто-напросто нет.

Что касается истинного интеллекта, то он способен различать важную и несущественную информацию. Именно эту способность попытались найти ученые люди у моделей ИИ, но не нашли.

Что же выяснилось? То, что системы ИИ не понимают, где важная и главная информация, а где – пустые слова. LLM, как выяснилось, часто сбиваются на ненужных деталях, и нет у них ни настоящего понимания, ни рационального мышления. А есть склонность выдавать правдоподобные на первый взгляд ответы, которые при детальном рассмотрении оказываются неверными. 

На основании этих данных ученые сделали вывод, что современные системы ИИ лишь выявляют шаблоны в текстах и строят ответы на основе статистической обработки данных, а не реального понимания сути вопросов.