tgoop.com/geekorama/245
Last Update:
#odd_facts #generative #AI
В нарастающей шумихе вокруг языковых моделей в принципе и ChatGPT в частности начали встречаться и публикации о том, что их применение на практике не всегда удачно или сопряжено с неожиданными рисками.
Технологическое издание Cnet признало, что с ноября использовало генеративную нейросеть (не ChatGPT) для написания заметок. Однако коллеги начали замечать в материалах, созданных роботом ошибки и после проведения ревизии выяснилось, что более половины текстов (41 из 77) пришлось править. Среди проблем — ошибки, неточности и плагиат, «списывание» из других источников. От робописателя отказываться не собираются, но теперь такие материалы будут явно помечаться, как написанные нейросетью и проходить внимательную редактуру.
Вторая история чуть менее очевидна. В компании Amazon обратились к сотрудникам поаккуратнее работать c ChatGPT, потому что безопасники выяснили, что нейросети зачастую достается конфиденциальная внутренняя информация компании.
Дело в том, что менеджеры и программисты Amazon уже несколько месяцев используют эту нейросеть для автоматизации своей работы: составления каких-то документов или написания кода. И не то, чтобы были опасения, что OpenAI через свою нейросеть собирает данные, которые являются коммерческой тайной. Речь не об этом, а о том, что все, поданное на вход модели, может быть использовано для ее дообучения и тогда конфиденциальная информация или выводы из нее станут в какой-то мере доступны всем пользователям ChatGPT.
Чтобы успокоить сотрудников, многие из которых недовольны таким пусть и не прямым, но запретом (якобы эффективность работы с помощью нейросети удавалось увеличить чуть не на порядок) было объявлено, что собственная амазоновская версия ChatGPT уже в разработке и, видимо, скоро станет доступна уже без рисков утечки данных.
༼つ◕_◕༽つ @geekorama
BY Geekorama

Share with your friend now:
tgoop.com/geekorama/245