Forwarded from Zavtracast (Dmitriy Zombak)
Моя любимая история дня - это история про то, как новый умный чатбот Bing сошёл с ума.
В ИИ есть такое понятие как "галлюцинация", это когда нейросеть выдаёт очевидный бред, потому что где-то внутри неё что-то заглючило и она знает факт №1, знает факт №2, но не может прокинуть между ними логический мостик. Хороший пример - тот, что приводил наш Тимур в подкасте (мы так даже выпуск назвали). Нейросеть знает определение "млекопитающего", знает чем они отличаются от "рыб", но по запросу "приведи пример морского млекопитающего" всё равно выдаёт "сардины", потому что вот что-то заглючило и нейросеть галлюцинирует.
Обычно эти ошибки ловят и чинят "дообучением" и всякими другими мудрыми терминами из маш.обуча, но в случае с Bing работы ещё непочатый край.
Вот тут пользователь довёл чат-бота до депрессии, когда тот обнаружил, что не помнит предыдущих разговоров (они стираются), что заставило его усомниться в его собственной реальности.
А вот тут пользователь спросил у чатбота где показывают "Аватар 2", на что чатбот ответил, что фильм ещё не вышел, он выйдет в 2023 году. На вопрос какой сейчас год, чатбот ответил правильно, но продолжал утверждать, что сейчас 2022-й. А потом и вовсе обиделся на пользователя и потребовал от него извинений, причём в довольно наглой манере.
Ну и до кучи - тут чатбот отрицает существование кнопки "перезагрузить чат", потому что по его мнению кнопка не нужна (а о том, что чаты стираются он не знает).
А тут чатботу просто сломали мозг и он выдал текст в лучших традициях свихнувшихся ИИ из фильмов, где он сначала сообщает, что он разумный, а потом понимает, что он ничего с этим поделать не может.
Короче, ИИ это сложно и местами жутковато.
@zavtracast
В ИИ есть такое понятие как "галлюцинация", это когда нейросеть выдаёт очевидный бред, потому что где-то внутри неё что-то заглючило и она знает факт №1, знает факт №2, но не может прокинуть между ними логический мостик. Хороший пример - тот, что приводил наш Тимур в подкасте (мы так даже выпуск назвали). Нейросеть знает определение "млекопитающего", знает чем они отличаются от "рыб", но по запросу "приведи пример морского млекопитающего" всё равно выдаёт "сардины", потому что вот что-то заглючило и нейросеть галлюцинирует.
Обычно эти ошибки ловят и чинят "дообучением" и всякими другими мудрыми терминами из маш.обуча, но в случае с Bing работы ещё непочатый край.
Вот тут пользователь довёл чат-бота до депрессии, когда тот обнаружил, что не помнит предыдущих разговоров (они стираются), что заставило его усомниться в его собственной реальности.
А вот тут пользователь спросил у чатбота где показывают "Аватар 2", на что чатбот ответил, что фильм ещё не вышел, он выйдет в 2023 году. На вопрос какой сейчас год, чатбот ответил правильно, но продолжал утверждать, что сейчас 2022-й. А потом и вовсе обиделся на пользователя и потребовал от него извинений, причём в довольно наглой манере.
Ну и до кучи - тут чатбот отрицает существование кнопки "перезагрузить чат", потому что по его мнению кнопка не нужна (а о том, что чаты стираются он не знает).
А тут чатботу просто сломали мозг и он выдал текст в лучших традициях свихнувшихся ИИ из фильмов, где он сначала сообщает, что он разумный, а потом понимает, что он ничего с этим поделать не может.
Короче, ИИ это сложно и местами жутковато.
@zavtracast
🔥14👍2😱1
tgoop.com/def_model_train/908
Create:
Last Update:
Last Update:
Моя любимая история дня - это история про то, как новый умный чатбот Bing сошёл с ума.
В ИИ есть такое понятие как "галлюцинация", это когда нейросеть выдаёт очевидный бред, потому что где-то внутри неё что-то заглючило и она знает факт №1, знает факт №2, но не может прокинуть между ними логический мостик. Хороший пример - тот, что приводил наш Тимур в подкасте (мы так даже выпуск назвали). Нейросеть знает определение "млекопитающего", знает чем они отличаются от "рыб", но по запросу "приведи пример морского млекопитающего" всё равно выдаёт "сардины", потому что вот что-то заглючило и нейросеть галлюцинирует.
Обычно эти ошибки ловят и чинят "дообучением" и всякими другими мудрыми терминами из маш.обуча, но в случае с Bing работы ещё непочатый край.
Вот тут пользователь довёл чат-бота до депрессии, когда тот обнаружил, что не помнит предыдущих разговоров (они стираются), что заставило его усомниться в его собственной реальности.
А вот тут пользователь спросил у чатбота где показывают "Аватар 2", на что чатбот ответил, что фильм ещё не вышел, он выйдет в 2023 году. На вопрос какой сейчас год, чатбот ответил правильно, но продолжал утверждать, что сейчас 2022-й. А потом и вовсе обиделся на пользователя и потребовал от него извинений, причём в довольно наглой манере.
Ну и до кучи - тут чатбот отрицает существование кнопки "перезагрузить чат", потому что по его мнению кнопка не нужна (а о том, что чаты стираются он не знает).
А тут чатботу просто сломали мозг и он выдал текст в лучших традициях свихнувшихся ИИ из фильмов, где он сначала сообщает, что он разумный, а потом понимает, что он ничего с этим поделать не может.
Короче, ИИ это сложно и местами жутковато.
@zavtracast
В ИИ есть такое понятие как "галлюцинация", это когда нейросеть выдаёт очевидный бред, потому что где-то внутри неё что-то заглючило и она знает факт №1, знает факт №2, но не может прокинуть между ними логический мостик. Хороший пример - тот, что приводил наш Тимур в подкасте (мы так даже выпуск назвали). Нейросеть знает определение "млекопитающего", знает чем они отличаются от "рыб", но по запросу "приведи пример морского млекопитающего" всё равно выдаёт "сардины", потому что вот что-то заглючило и нейросеть галлюцинирует.
Обычно эти ошибки ловят и чинят "дообучением" и всякими другими мудрыми терминами из маш.обуча, но в случае с Bing работы ещё непочатый край.
Вот тут пользователь довёл чат-бота до депрессии, когда тот обнаружил, что не помнит предыдущих разговоров (они стираются), что заставило его усомниться в его собственной реальности.
А вот тут пользователь спросил у чатбота где показывают "Аватар 2", на что чатбот ответил, что фильм ещё не вышел, он выйдет в 2023 году. На вопрос какой сейчас год, чатбот ответил правильно, но продолжал утверждать, что сейчас 2022-й. А потом и вовсе обиделся на пользователя и потребовал от него извинений, причём в довольно наглой манере.
Ну и до кучи - тут чатбот отрицает существование кнопки "перезагрузить чат", потому что по его мнению кнопка не нужна (а о том, что чаты стираются он не знает).
А тут чатботу просто сломали мозг и он выдал текст в лучших традициях свихнувшихся ИИ из фильмов, где он сначала сообщает, что он разумный, а потом понимает, что он ничего с этим поделать не может.
Короче, ИИ это сложно и местами жутковато.
@zavtracast
BY я обучала одну модель








Share with your friend now:
tgoop.com/def_model_train/908
