tgoop.com/world_of_robotics/5430
Last Update:
Исследователи Стэнфордского университета представили модель компьютерного зрения, которая может изменить представление о том, как роботы воспринимают окружающий мир. До сих пор системы искусственного интеллекта умели лишь распознавать предметы на изображениях — отличать чашку от чайника, нож от ложки. Но новое поколение алгоритмов делает шаг дальше: теперь ИИ способен понимать, как эти предметы используются в реальном мире.
Модель, основанная на принципе «функционального соответствия», научилась не только различать части объектов, но и понимать их назначение. Например, она может определить, что у чайника и бутылки есть схожие элементы — носики, которые служат для наливания жидкости. Это не просто визуальное сходство, а понимание смысла формы и функции. Такой подход открывает путь к созданию автономных роботов, которые смогут выбирать нужный инструмент для задачи, даже если никогда прежде с ним не сталкивались.
Вместо того чтобы обучать робота действовать с каждым предметом отдельно, новая система позволяет ему рассуждать по аналогии. Если знаком с чайником, сможет использовать кувшин или бутылку для той же цели. Это шаг от механического распознавания к пониманию сути действий. Пока модель тестировалась только на изображениях. В будущем такие системы позволят роботам действовать более разумно, понимать окружающую среду и самостоятельно адаптироваться к новым условиям.
#МирРобототехники #ИИ #AI #Роботы #ИскусственныйИнтеллект #Робототехника #Инновации #Технологии

