Искусственный интеллект нередко оказывается фикцией
Такой вывод сделала группа ученых из Apple Computer Company. Исследователи провели сравнительный анализ крупных языковых моделей (LLM), в том числе ChatGPT.
Результаты оказались вполне лестными для живых людей. Оказалось, что эти системы только создают иллюзию интеллекта в своих ответах и предлагаемых решениях. Но никакой логики в них просто-напросто нет.
Что касается истинного интеллекта, то он способен различать важную и несущественную информацию. Именно эту способность попытались найти ученые люди у моделей ИИ, но не нашли.
Что же выяснилось? То, что системы ИИ не понимают, где важная и главная информация, а где – пустые слова. LLM, как выяснилось, часто сбиваются на ненужных деталях, и нет у них ни настоящего понимания, ни рационального мышления. А есть склонность выдавать правдоподобные на первый взгляд ответы, которые при детальном рассмотрении оказываются неверными.
На основании этих данных ученые сделали вывод, что современные системы ИИ лишь выявляют шаблоны в текстах и строят ответы на основе статистической обработки данных, а не реального понимания сути вопросов.
Комментарии
Добавление комментария
Комментарии