tgoop.com/data_talks/540
Last Update:
ИИ становится всё полезнее — но только если не тратит ресурсы зря, не искажает реальность и умеет быстро справляться с задачами.
Когда данных для обучения уже достаточно? Учёные из МФТИ научились определять идеальный объем данных для ИИ. Они предложили два новых подхода к решению одной из фундаментальных проблем машинного обучения: определению достаточного размера выборки. Их работа предлагает измерять, насколько «уверенность» модели в своих параметрах меняется при добавлении или удалении всего одного элемента данных, используя для этого два различных математических инструмента.
А российские учёные из AIRI ускорили квантово-химические расчёты, которые нужны для создания новых лекарств. Их нейросеть учится в 4 раза быстрее аналогов и требует в 42 раза меньше данных. Секрет — в комбинации современной архитектуры и старой советской математики — решётке Лебедева. Новый ИИ уже обходит европейскую систему DeepDFT по точности расчётов.
Исследователи из Стэнфорда, Оксфорда и CMU обнаружили, что модели вроде GPT-4o слишком часто соглашаются с пользователями — даже когда те не правы. Это называется sycophancy — избыточная угодливость. Исследователи предложили тест Elephant, чтобы отслеживать такие отклонения. Самой «подлизывающейся» оказалась GPT-4o, а наименее — Gemini 1.5 Flash от Google.
Практическое применение ИИ — в московском транспорте. На всех площадках Мосгортранса работает система, которая за 5 минут распределяет смены для 13 тысяч водителей. Она учитывает графики отдыха и равные условия, автоматизируя процесс, который раньше занимал часы.
BY Data & AI Talks

Share with your friend now:
tgoop.com/data_talks/540