Технологии

Квинтэссенция лженауки: ИИ ошибается с ответами в 60% случаев, выяснили ученые

Published

on

Исследования показывают, что полагаться на искусственный интеллект для получения точной информации — это не всегда хорошая идея.

Несмотря на обещания о революции в различных областях, новые данные свидетельствуют о значительных проблемах с точностью AI-инструментов.

В ходе недавнего исследования ученые оценили восемь моделей ИИ, включая ChatGPT и Gemini, на их способность предоставлять точные данные, такие как заголовки, издатели, даты публикаций и ссылки. Результаты оказались ошеломляющими: эти модели ошибались более чем в 60% случаев. Особенно выделяется модель Grok 3 от Илона Маска, которая ошибалась в 94% случаев, что делает ее крайне ненадежной для поиска точной информации.

Одной из главных проблем является склонность ИИ-методов предоставлять неверную информацию с высокой уверенностью, часто без признания своих ограничений. Также искусственный интеллект часто не указывает правильные источники, что затрудняет проверку фактов. Например, ChatGPT ошибался в ссылках на первоисточники почти в 40% случаев и не указывал источник в 21% случаев.

Эти выводы подчеркивают важность осторожности при использовании ИИ для получения точных данных, особенно в областях, где точность информации критична. С развитием технологий могут появиться решения для этих проблем, но на данный момент полагаться на ИИ в таких задачах — не лучшая идея.

Источник: Futurism

Leave a Reply

Your email address will not be published. Required fields are marked *

В тренде

Exit mobile version