tgoop.com/merexp_analytics/108
Last Update:
ChatGPT и галлюцинации: когда ИИ начинает выдумывать
#словарь@merexp_analytics
В мире искусственного интеллекта часто говорят о его объективности. Мол, машина не человек, у неё нет предубеждений. Но это не совсем так. Если «скормить» ИИ неправильные данные, он будет выдавать неправильные результаты. Это называется «галлюцинациями».
В чём проблема ChatGPT?
ChatGPT обучен на огромном количестве текстов из интернета. А в интернете, как известно, много всякого... Включая стереотипы, ошибки и просто глупости. Поэтому ИИ от OpenAI может «галлюцинировать», то есть выдумывать факты и делать неправильные выводы.
Например:
Вопрос: Какое влияние оказывает SEC на рынок криптовалют?
ChatGPT: *SEC всегда негативно влияет на рынок*.
(На самом деле это не так! В разные периоды влияние SEC может быть как негативным, так и позитивным.)
Запрос: Проанализируй эту новость + ссылка на новость.
ChatGPT: *Придумывает какие-то факты об этой криптовалюте, которых на самом деле нет*.
А как же AI Swallow?
Если вкратце, то всё немного сложнее. Мы не просто обучили AI Swallow на достоверных текстах, мы создали уникальную самообучающуюся модель. Она постоянно получает новостной поток и анализирует его, совершенствуясь без нашего вмешательства.
Это позволяет AI Swallow давать более точные и надёжные прогнозы, чем любая другая модель, даже теоретически. Плюс, благодаря своей архитектуре, наш ИИ не страдает «галлюцинациями» и всегда выдает конкретный результат.
В чём преимущества AI Swallow?
Чтобы получить подобное качество прогнозов, вам потребовался бы штат из нескольких экономистов, которые круглосуточно анализировали бы новости. Даже если исключить человеческий фактор, расходы на зарплату таких специалистов составили бы от 2000 $ в день. У нас же при более высоком качестве цена получается всего 0.4$ в день.
Официальный канал | Обратная связь | WEB-платформа