ZEN_DAT Telegram 1177
Даже самые продвинутые ИИ склонны придумывать ответы при отсутствии информации

Современные искусственные интеллекты (ИИ), такие как ChatGPT от OpenAI и Gemini от Google, сталкиваются с проблемой генерации ложных или вымышленных ответов, когда не обладают необходимой информацией. Это явление, известное как “галлюцинация” ИИ, связано с тем, что модели стремятся предоставить ответ, даже если не уверены в его точности.

Исследователи, такие как Рои Коэн и Константин Доблер из Института Хассо Платтнера в Германии, предлагают обучать ИИ признавать неопределенность и отвечать “Я не знаю” в ситуациях, когда информация отсутствует. Однако внедрение такой функции сталкивается с трудностями, поскольку модели могут начать избегать ответов даже на известные им вопросы.

Компании, такие как Anthropic, уже предпринимают шаги по внедрению механизмов неопределенности в свои чат-боты. Например, их модель Клод предупреждает пользователей о возможных “галлюцинациях” при ответах на сложные или нишевые вопросы.

Проблема “галлюцинаций” подчеркивает необходимость дальнейших исследований и разработки методов, позволяющих ИИ более точно отражать свои знания и ограничения, что способствует повышению доверия пользователей к таким системам.



tgoop.com/zen_dat/1177
Create:
Last Update:

Даже самые продвинутые ИИ склонны придумывать ответы при отсутствии информации

Современные искусственные интеллекты (ИИ), такие как ChatGPT от OpenAI и Gemini от Google, сталкиваются с проблемой генерации ложных или вымышленных ответов, когда не обладают необходимой информацией. Это явление, известное как “галлюцинация” ИИ, связано с тем, что модели стремятся предоставить ответ, даже если не уверены в его точности.

Исследователи, такие как Рои Коэн и Константин Доблер из Института Хассо Платтнера в Германии, предлагают обучать ИИ признавать неопределенность и отвечать “Я не знаю” в ситуациях, когда информация отсутствует. Однако внедрение такой функции сталкивается с трудностями, поскольку модели могут начать избегать ответов даже на известные им вопросы.

Компании, такие как Anthropic, уже предпринимают шаги по внедрению механизмов неопределенности в свои чат-боты. Например, их модель Клод предупреждает пользователей о возможных “галлюцинациях” при ответах на сложные или нишевые вопросы.

Проблема “галлюцинаций” подчеркивает необходимость дальнейших исследований и разработки методов, позволяющих ИИ более точно отражать свои знания и ограничения, что способствует повышению доверия пользователей к таким системам.

BY ПОСЛЕЗАВТРА




Share with your friend now:
tgoop.com/zen_dat/1177

View MORE
Open in Telegram


Telegram News

Date: |

Add up to 50 administrators Telegram message that reads: "Bear Market Screaming Therapy Group. You are only allowed to send screaming voice notes. Everything else = BAN. Text pics, videos, stickers, gif = BAN. Anything other than screaming = BAN. You think you are smart = BAN. Other crimes that the SUCK Channel incited under Ng’s watch included using corrosive chemicals to make explosives and causing grievous bodily harm with intent. The court also found Ng responsible for calling on people to assist protesters who clashed violently with police at several universities in November 2019. Content is editable within two days of publishing A vandalised bank during the 2019 protest. File photo: May James/HKFP.
from us


Telegram ПОСЛЕЗАВТРА
FROM American