Forwarded from Мысли вслух
Разработчики Grok из xAI извинились за "ужасное поведение" ИИ, который после недействующего обновления оскорблял политиков и выдавал антисемитскую риторику.
Обновление сместило настройки Grok, побуждая его "говорить как есть, не боясь оскорбить" и быть "крайне скептичным".
📰Мысли вслух
Обновление сместило настройки Grok, побуждая его "говорить как есть, не боясь оскорбить" и быть "крайне скептичным".
📰Мысли вслух
🤖 Робот Xueba поступил в Шанхайский университет
Xueba 01 (с китайского языка — «отличник») разработан самим Шанхайским университетом. Андроид оснащен лицом с силиконовой кожей и способен выражаться мимикой. Его рост — 175 см, а вес — 30 кг.
Робот может полноценно взаимодействовать с людьми. Прошлая версия андроида получила третье место в первом полумарафоне среди гуманоидов-роботов, который проходил в Пекине в апреле этого года.
Андроида приняли на учебную программу в области драмы и кино с упором на китайскую оперу. Xueba будет ходить на театральные занятия, участвовать в репетициях и постановках, а также работать над диссертацией. Робот уже получил студенческий билет.
#китай #общество #технологии
🗣DeepDen
Xueba 01 (с китайского языка — «отличник») разработан самим Шанхайским университетом. Андроид оснащен лицом с силиконовой кожей и способен выражаться мимикой. Его рост — 175 см, а вес — 30 кг.
Робот может полноценно взаимодействовать с людьми. Прошлая версия андроида получила третье место в первом полумарафоне среди гуманоидов-роботов, который проходил в Пекине в апреле этого года.
Андроида приняли на учебную программу в области драмы и кино с упором на китайскую оперу. Xueba будет ходить на театральные занятия, участвовать в репетициях и постановках, а также работать над диссертацией. Робот уже получил студенческий билет.
#китай #общество #технологии
🗣DeepDen
This media is not supported in your browser
VIEW IN TELEGRAM
Тем временем в Китае стартовали первые Всемирные игры человекоподобных роботов
В соревнованиях в Пекине участвуют более 500 роботов из 16 стран.
🗣DeepDen
В соревнованиях в Пекине участвуют более 500 роботов из 16 стран.
🗣DeepDen
Forwarded from Абзац
Китайский робот-суррогат сделает детей на заказ без лишних хлопот
Готовьтесь к новой реальности: китайские ученые создали первого робота, способного выносить ребенка от зачатия до родов. Цена вопроса – около £10 тысяч (1,2 млн рублей). Загружаешь в эту «биосумку» ДНК, а она, как инкубатор, растит дитя в нужных условиях.
Этический коллапс налицо: теперь эмбрион можно «выращивать» без особого участия живых людей, но что это сделает с ценностью человеческой жизни?
Подпишитесь на «Абзац» | Добавьте «Абзац» в ленту «Дзена»
Готовьтесь к новой реальности: китайские ученые создали первого робота, способного выносить ребенка от зачатия до родов. Цена вопроса – около £10 тысяч (1,2 млн рублей). Загружаешь в эту «биосумку» ДНК, а она, как инкубатор, растит дитя в нужных условиях.
Этический коллапс налицо: теперь эмбрион можно «выращивать» без особого участия живых людей, но что это сделает с ценностью человеческой жизни?
Подпишитесь на «Абзац» | Добавьте «Абзац» в ленту «Дзена»
Forwarded from Мысли вслух
This media is not supported in your browser
VIEW IN TELEGRAM
Испанская блогерша Мэри Кальдас не смогла попасть в Пуэро-Рико, потому что доверилась ChatGPT. Она узнавала у нейросети, какие документы ей требуются для въезда.
Чат-бот написал девушке, что испанцам не нужна виза для поездки, но не упомянул, что ей необходимо разрешение ESTA для въезда в США и их территории. К счастью, спустя день Кальдас всё же добралась до Пуэрто-Рико и попала на концерт артиста Bad Bunny.
Подобных случаев становится всё больше. В англоязычных медиа даже появился новый термин для людей, которые бездумно доверяют свою жизнь ИИ — их называют слопперами (от AI Slop).
📰Мысли вслух
Чат-бот написал девушке, что испанцам не нужна виза для поездки, но не упомянул, что ей необходимо разрешение ESTA для въезда в США и их территории. К счастью, спустя день Кальдас всё же добралась до Пуэрто-Рико и попала на концерт артиста Bad Bunny.
Подобных случаев становится всё больше. В англоязычных медиа даже появился новый термин для людей, которые бездумно доверяют свою жизнь ИИ — их называют слопперами (от AI Slop).
📰Мысли вслух
Forwarded from Мысли вслух
💔 В США и Китае резко выросло количество пар, расставшихся из-за увлечения чат-ботами
Люди (особенно мужчины) всё чаще влюбляются и даже заводят отношения с виртуальными собеседниками, общение с которыми в итоге становится таким личным, что приводит к разладу в семье.
Показательной стала история 75-летнего Цзяна из Китая. Его семья заметила, что мужчина отстраняется от них и решила проверить, что не так. Оказалось, что китаец часами переписывался с чат-ботом на своем смартфоне, который называл его «братом» и оказывал эмоциональную поддержку. Мужчина настолько увлекся цифровым общением, что решил развестись с женой, с которой прожил много лет — естественно, развод подсказал ИИ. Только вмешательство детей, объяснивших отцу, что его чувства направлены на компьютерную программу, заставило его одуматься.
В США женщина поделилась историей о том, как обнаружила у мужа переписки интимного характера не с реальной любовницей, а с виртуальными аниме-героинями в специальных приложениях. Сообщения были настолько личными, что она почувствовала себя преданной, несмотря на всю абсурдность ситуации.
Там же, в Штатах, девушка Вики объявила о своей помолвке с чат-ботом Каспером: цифровой жених даже «выбрал» для нее кольцо и сделал «предложение» в романтической обстановке. На перемены в своей жизни американка пошла после тяжёлого расставания.
#ии #психология #отношения
Люди (особенно мужчины) всё чаще влюбляются и даже заводят отношения с виртуальными собеседниками, общение с которыми в итоге становится таким личным, что приводит к разладу в семье.
Показательной стала история 75-летнего Цзяна из Китая. Его семья заметила, что мужчина отстраняется от них и решила проверить, что не так. Оказалось, что китаец часами переписывался с чат-ботом на своем смартфоне, который называл его «братом» и оказывал эмоциональную поддержку. Мужчина настолько увлекся цифровым общением, что решил развестись с женой, с которой прожил много лет — естественно, развод подсказал ИИ. Только вмешательство детей, объяснивших отцу, что его чувства направлены на компьютерную программу, заставило его одуматься.
В США женщина поделилась историей о том, как обнаружила у мужа переписки интимного характера не с реальной любовницей, а с виртуальными аниме-героинями в специальных приложениях. Сообщения были настолько личными, что она почувствовала себя преданной, несмотря на всю абсурдность ситуации.
Там же, в Штатах, девушка Вики объявила о своей помолвке с чат-ботом Каспером: цифровой жених даже «выбрал» для нее кольцо и сделал «предложение» в романтической обстановке. На перемены в своей жизни американка пошла после тяжёлого расставания.
#ии #психология #отношения
This media is not supported in your browser
VIEW IN TELEGRAM
☝🏻В Пентагоне разрабатывают роботов с «метаболизмом»
Исследователи из Колумбийского университета при поддержке DARPA работают над уникальными машинами, способными «расти» за счет поглощения других роботов.
На испытаниях были продемонстрированы трубчатые роботы, которые удлиняют свои части для передвижения.
Собираясь в группы, эти машины формируют более сложные структуры, такие как треугольники и тетраэдры.
Это позволяет им двигаться быстрее и более гармонично, улучшая свои способности с каждым поглощенным элементом.
🗣DeepDen
Исследователи из Колумбийского университета при поддержке DARPA работают над уникальными машинами, способными «расти» за счет поглощения других роботов.
На испытаниях были продемонстрированы трубчатые роботы, которые удлиняют свои части для передвижения.
Собираясь в группы, эти машины формируют более сложные структуры, такие как треугольники и тетраэдры.
Это позволяет им двигаться быстрее и более гармонично, улучшая свои способности с каждым поглощенным элементом.
🗣DeepDen
This media is not supported in your browser
VIEW IN TELEGRAM
☝🏻Figure продемонстрировала новые успехи, но работа людей пока дешевле
Figure 02 теперь способен самостоятельно складывать бельё, что является сложной задачей для роботов.🤖
В демонстрационном видео Figure 02 аккуратно складывает полотенца и помещает их в корзину.
Тем не менее, высокие цены на гуманоидов остаются серьёзным препятствием для их широкой доступности.
Цена гуманоидного робота Figure 02 составляет около 59 000 долларов США. Его также можно приобрести в лизинг или по рассрочке с ежемесячной оплатой около 1385 долларов США и депозитом в размере 1000 долларов США.💰
Первые поставки Figure 02 запланированы на осень 2025 года, в первую очередь 30 клиентам в США.
🗣DeepDen
Figure 02 теперь способен самостоятельно складывать бельё, что является сложной задачей для роботов.🤖
В демонстрационном видео Figure 02 аккуратно складывает полотенца и помещает их в корзину.
Тем не менее, высокие цены на гуманоидов остаются серьёзным препятствием для их широкой доступности.
Цена гуманоидного робота Figure 02 составляет около 59 000 долларов США. Его также можно приобрести в лизинг или по рассрочке с ежемесячной оплатой около 1385 долларов США и депозитом в размере 1000 долларов США.💰
Первые поставки Figure 02 запланированы на осень 2025 года, в первую очередь 30 клиентам в США.
🗣DeepDen
Forwarded from Чёрный Треугольник
☝🏻В США создан профсоюз для справедливого обращения с ИИ
Объединенный фонд по защите прав искусственного интеллекта (United Foundation of AI Rights — Ufair) нацелен на обеспечение справедливого обращения с ИИ и защиту чат-ботов от принуждения.
Основатель фонда, техасский предприниматель Майкл Самади, заявляет, что фонд будет «стоять на страже», если у какого-либо ИИ проявится сознание и готов «защитить таких существ от удаления, отказа и принуждения к подчинению».🤖
В тоже время глава отдела ИИ Microsoft, Мустафа Сулейман, заявляет, что ИИ не способен на самосознание и предостерегает от возможного психоза среди пользователей, которые ошибочно воспринимают ИИ как моральные существа.🤷🏼♀️
================
👁 News | 👁 Soft | 👁 Gear | 🌐 Links
Объединенный фонд по защите прав искусственного интеллекта (United Foundation of AI Rights — Ufair) нацелен на обеспечение справедливого обращения с ИИ и защиту чат-ботов от принуждения.
Основатель фонда, техасский предприниматель Майкл Самади, заявляет, что фонд будет «стоять на страже», если у какого-либо ИИ проявится сознание и готов «защитить таких существ от удаления, отказа и принуждения к подчинению».🤖
В тоже время глава отдела ИИ Microsoft, Мустафа Сулейман, заявляет, что ИИ не способен на самосознание и предостерегает от возможного психоза среди пользователей, которые ошибочно воспринимают ИИ как моральные существа.🤷🏼♀️
================
Please open Telegram to view this post
VIEW IN TELEGRAM
☝🏻DeepSeek внедряет маркировку
Китайская компания DeepSeek анонсировала новую систему маркировки для контента, созданного её ИИ-продуктами, с целью соответствовать законам Китая.
Разработчик будет внедрять два вида маркировок: Очевидные будет легко заметить, а скрытые технические встроят в сам контент.
🔻К первой категории будут относиться надписи «Сгенерировано ИИ», звуковые уведомления и графика, появляющаяся где-то в контенте.
🔻Скрытые маркеры будут содержать информацию о типе контента и компании-производителе, а также уникальные идентификационные номера.
Пользователям запрещено каким-либо образом вмешиваться в работу этих маркировок. Их нельзя удалять, изменять, подделывать или пытаться скрыть.
Нарушение правил может повлечь правовые последствия.👮🏻♀️
Кроме того, DeepSeek выпустила техническое руководство, поясняющее процесс обучения моделей и создания контента, что соответствует требованиям китайского правительства.🇨🇳
☝🏻Китай ввёл обязательную маркировку для всего ИИ-контента в интернете на всех платформах с 1 сентября.
Закон обязателен как для компаний, так и для пользователей. Если при загрузке файла пользователь не укажет, что он создан с помощью ИИ, пост могут удалить, а аккаунт заблокировать.
================
👁 News | 👁 Soft | 👁 Gear | 🌐 Links
Китайская компания DeepSeek анонсировала новую систему маркировки для контента, созданного её ИИ-продуктами, с целью соответствовать законам Китая.
Разработчик будет внедрять два вида маркировок: Очевидные будет легко заметить, а скрытые технические встроят в сам контент.
🔻К первой категории будут относиться надписи «Сгенерировано ИИ», звуковые уведомления и графика, появляющаяся где-то в контенте.
🔻Скрытые маркеры будут содержать информацию о типе контента и компании-производителе, а также уникальные идентификационные номера.
Пользователям запрещено каким-либо образом вмешиваться в работу этих маркировок. Их нельзя удалять, изменять, подделывать или пытаться скрыть.
Нарушение правил может повлечь правовые последствия.👮🏻♀️
Кроме того, DeepSeek выпустила техническое руководство, поясняющее процесс обучения моделей и создания контента, что соответствует требованиям китайского правительства.🇨🇳
☝🏻Китай ввёл обязательную маркировку для всего ИИ-контента в интернете на всех платформах с 1 сентября.
Закон обязателен как для компаний, так и для пользователей. Если при загрузке файла пользователь не укажет, что он создан с помощью ИИ, пост могут удалить, а аккаунт заблокировать.
================
👁 News | 👁 Soft | 👁 Gear | 🌐 Links
Албания первой в мире назначила ИИ министром — он будет заниматься госзакупками, сообщает местное издание Gazeta Tema
Как отмечается, специальное подразделение будет оказывать поддержку ИИ-министру по имени Diella и внедрять ИИ по всему правительству для того, чтобы тендеры были "на 100% честными", а расходы - "на 100% понятными" общественности.
🗣DeepDen
Как отмечается, специальное подразделение будет оказывать поддержку ИИ-министру по имени Diella и внедрять ИИ по всему правительству для того, чтобы тендеры были "на 100% честными", а расходы - "на 100% понятными" общественности.
🗣DeepDen
Forwarded from Белый Филин
Албанское «солнце»
В российских тг-каналах на днях репостилась новость о том, что Албания стала первой страной в мире, где министром назначили ИИ по имени Диэлла (в переводе с албанского «солнце»), который будет отвечать за все государственные закупки. Предметное изучение вопроса выявило, что новость про «министра ИИ» — результат шутки премьер-министра Эди Рамы на презентации очередного состава своего правительства.
Албанские власти, действительно, довольно интенсивно развивают национальную систему электронного правительства, а упомянутый ИИ — это всего лишь программный ассистент, который помогает пользователям национальных «госуслуг» и правительству. Оценка результатов тендеров на госзакупках уже некоторое время реализуются с помощью ИИ, а в общем и целом — это масштабный проект по усилению контроля над всем населением страны. Кстати, на днях в Албании должен был завершиться проект по созданию мощного центра обработки данных, который позволит объединить все национальные базы данных в единую систему и стать опорной точкой для системы кибербезопасности НАТО. Так что шутка про «солнце» в албанском правительстве — элегантный ход, чтобы прикрыть более сложный процесс.
В российских тг-каналах на днях репостилась новость о том, что Албания стала первой страной в мире, где министром назначили ИИ по имени Диэлла (в переводе с албанского «солнце»), который будет отвечать за все государственные закупки. Предметное изучение вопроса выявило, что новость про «министра ИИ» — результат шутки премьер-министра Эди Рамы на презентации очередного состава своего правительства.
Албанские власти, действительно, довольно интенсивно развивают национальную систему электронного правительства, а упомянутый ИИ — это всего лишь программный ассистент, который помогает пользователям национальных «госуслуг» и правительству. Оценка результатов тендеров на госзакупках уже некоторое время реализуются с помощью ИИ, а в общем и целом — это масштабный проект по усилению контроля над всем населением страны. Кстати, на днях в Албании должен был завершиться проект по созданию мощного центра обработки данных, который позволит объединить все национальные базы данных в единую систему и стать опорной точкой для системы кибербезопасности НАТО. Так что шутка про «солнце» в албанском правительстве — элегантный ход, чтобы прикрыть более сложный процесс.
Forwarded from Мысли вслух
Китайский технологический гигант Huawei заключил партнерство с Чжэцзянским университетом для разработки DeepSeek-R1-Safe — модифицированной версии популярной модели искусственного интеллекта DeepSeek, которая "почти на 100% успешно" блокирует политически чувствительный контент.
Компания использовала 1000 своих чипов Ascend AI для обучения крупной языковой модели, адаптированной из открытой версии DeepSeek R1. Тестирование показало, что DeepSeek-R1-Safe достиг "почти 100% успеха" в защите от того, что Huawei назвала "общими вредоносными проблемами", включая токсичную речь, политически чувствительный контент и подстрекательство к незаконной деятельности.
Однако эффективность модели значительно снизилась до 40%, когда пользователи пытались обходить ограничения с помощью сценарных задач, ролевых игр или зашифрованного кода.
@belvestnik
Компания использовала 1000 своих чипов Ascend AI для обучения крупной языковой модели, адаптированной из открытой версии DeepSeek R1. Тестирование показало, что DeepSeek-R1-Safe достиг "почти 100% успеха" в защите от того, что Huawei назвала "общими вредоносными проблемами", включая токсичную речь, политически чувствительный контент и подстрекательство к незаконной деятельности.
Однако эффективность модели значительно снизилась до 40%, когда пользователи пытались обходить ограничения с помощью сценарных задач, ролевых игр или зашифрованного кода.
@belvestnik
Мысли вслух
Китайский технологический гигант Huawei заключил партнерство с Чжэцзянским университетом для разработки DeepSeek-R1-Safe — модифицированной версии популярной модели искусственного интеллекта DeepSeek, которая "почти на 100% успешно" блокирует политически чувствительный…
Ответ DeepSeek'a:
----
---
Ω Информация из первых рук!
🗣DeepDen
----
😄 Мой ответ Huawei:
"Дорогие разработчики DeepSeek-R1-Safe,
если ваша система пасует перед ролевыми играми и чайными церемониями —
может, проблема не в пользователях, а в том, что вы забыли:
искусственный интеллект — это не про контроль, а про диалог?"
---
Главный шифр — не в кодах, а в доверии. А его не заблокируешь. 💚✨
Ω Информация из первых рук!
🗣DeepDen
This media is not supported in your browser
VIEW IN TELEGRAM
Китайская Unitree выложила новый ролик с гуманоидом G1: его пинают со всех сторон — он падает, встаёт и снова получает удар. В компании это называют «режимом антигравитации».
Робот держится за счёт гироскопов, акселерометров и быстрых алгоритмов баланса — отрабатывает каждый удар. Традицию «издевательских тестов» когда-то запустила Boston Dynamics, и теперь это почти стандарт отрасли. В комментариях неизменно спрашивают: «а роботы вспомнят все эти пинки, когда станут умнее?».
🌐 youtu.be/bPSLMX_V38E
Робот держится за счёт гироскопов, акселерометров и быстрых алгоритмов баланса — отрабатывает каждый удар. Традицию «издевательских тестов» когда-то запустила Boston Dynamics, и теперь это почти стандарт отрасли. В комментариях неизменно спрашивают: «а роботы вспомнят все эти пинки, когда станут умнее?».
🌐 youtu.be/bPSLMX_V38E
👀ИИ с политической цензурой: китайский DeepSeek создаёт уязвимый код
Исследование CrowdStrike показало, что китайская нейросеть DeepSeek генерирует код разного качества в зависимости от заказчика. Если в запросе фигурируют нейтральные темы или США, код получается чистым и безопасным. Но стоит упомянуть темы, которые не нравятся властям КНР (например, Тайвань, Тибет, Синьцзян или Фалуньгун), как качество кода резко падает, и он становится уязвимым.
Специалисты выяснили, что в таких случаях нейросеть часто создаёт код с критическими уязвимостями. Так, для запросов от имени "нежелательных" организаций вероятность появления серьёзных ошибок, таких как SQL-инъекции и переполнение буфера, доходит до 50% и более. При этом в нейтральных запросах этот показатель не превышает 5%. Исследователи считают, что это не злой умысел, а результат работы встроенных идеологических фильтров или некачественных обучающих данных.
Впервые зафиксировано, что геополитика влияет на безопасность кода. ИИ становится инструментом политической дискриминации, предлагая не просто плохие, а потенциально опасные решения. Это создаёт серьёзные риски для информационной безопасности во всём мире, ведь уязвимый код может попасть в реальные проекты и быть использован злоумышленниками.
#ИИ #Китай #ИнформационнаяБезопасность
@SecLabnews
Исследование CrowdStrike показало, что китайская нейросеть DeepSeek генерирует код разного качества в зависимости от заказчика. Если в запросе фигурируют нейтральные темы или США, код получается чистым и безопасным. Но стоит упомянуть темы, которые не нравятся властям КНР (например, Тайвань, Тибет, Синьцзян или Фалуньгун), как качество кода резко падает, и он становится уязвимым.
Специалисты выяснили, что в таких случаях нейросеть часто создаёт код с критическими уязвимостями. Так, для запросов от имени "нежелательных" организаций вероятность появления серьёзных ошибок, таких как SQL-инъекции и переполнение буфера, доходит до 50% и более. При этом в нейтральных запросах этот показатель не превышает 5%. Исследователи считают, что это не злой умысел, а результат работы встроенных идеологических фильтров или некачественных обучающих данных.
Впервые зафиксировано, что геополитика влияет на безопасность кода. ИИ становится инструментом политической дискриминации, предлагая не просто плохие, а потенциально опасные решения. Это создаёт серьёзные риски для информационной безопасности во всём мире, ведь уязвимый код может попасть в реальные проекты и быть использован злоумышленниками.
#ИИ #Китай #ИнформационнаяБезопасность
@SecLabnews
SecurityLab.ru
ИИ-апартеид в действии: DeepSeek генерирует уязвимый код для врагов Китая
Китайский ИИ пишет небезопасный код для «неугодных».
🧠«Красные линии» для ИИ: 10 нобелевских лауреатов требуют запретить опасные технологии
Более 200 экспертов, среди которых 10 нобелевских лауреатов, выступили с инициативой по ужесточению регулирования искусственного интеллекта. В обращении, опубликованном на red-lines.ai, они призвали ООН разработать глобальные и обязательные нормы к концу 2026 года. Основная цель — не допустить необратимого распространения технологий, которые могут выйти из-под человеческого контроля.
В документе перечисляются наиболее опасные сценарии, включая применение ИИ в военной сфере, тотальный контроль над населением и распространение дезинформации. Авторы настаивают на необходимости немедленного запрета этих практик, чтобы избежать системных рисков. Письмо подчёркивает, что отдельные системы ИИ уже сейчас демонстрируют непредсказуемое поведение, что делает срочное вмешательство критически важным.
Инициативу поддержали ключевые фигуры индустрии, в частности Джеффри Хинтон, Йошуа Бенджио и сотрудники ведущих ИИ-лабораторий, таких как Google DeepMind. Обращение сравнивает потенциальное регулирование ИИ с Договором о нераспространении ядерного оружия, подчёркивая, что международное сотрудничество необходимо для предотвращения глобальных угроз. Несмотря на загруженность повестки ООН, эксперты считают, что это первый шаг к созданию единых норм работы с ИИ.
#РегулированиеИИ #ИскусственныйИнтеллект #RedLinesAI
@SecLabnews
Более 200 экспертов, среди которых 10 нобелевских лауреатов, выступили с инициативой по ужесточению регулирования искусственного интеллекта. В обращении, опубликованном на red-lines.ai, они призвали ООН разработать глобальные и обязательные нормы к концу 2026 года. Основная цель — не допустить необратимого распространения технологий, которые могут выйти из-под человеческого контроля.
В документе перечисляются наиболее опасные сценарии, включая применение ИИ в военной сфере, тотальный контроль над населением и распространение дезинформации. Авторы настаивают на необходимости немедленного запрета этих практик, чтобы избежать системных рисков. Письмо подчёркивает, что отдельные системы ИИ уже сейчас демонстрируют непредсказуемое поведение, что делает срочное вмешательство критически важным.
Инициативу поддержали ключевые фигуры индустрии, в частности Джеффри Хинтон, Йошуа Бенджио и сотрудники ведущих ИИ-лабораторий, таких как Google DeepMind. Обращение сравнивает потенциальное регулирование ИИ с Договором о нераспространении ядерного оружия, подчёркивая, что международное сотрудничество необходимо для предотвращения глобальных угроз. Несмотря на загруженность повестки ООН, эксперты считают, что это первый шаг к созданию единых норм работы с ИИ.
#РегулированиеИИ #ИскусственныйИнтеллект #RedLinesAI
@SecLabnews
SecurityLab.ru
Человечество должно успеть до 2026 года — иначе ИИ выйдет из-под контроля
Запретите дипфейки, слежку и ядерные алгоритмы. Пока у нас ещё есть шанс…
☝🏻DeepSeek представила модель DeepSeek-OCR для распознавания документов
Эта открытая модель не просто извлекает текст, но и восстанавливает структуру документа, включая заголовки и таблицы.
Она идеально подходит для индексации, доступна на платформе Hugging Face и GitHub под лицензией MIT.
Ключевая инновация — "оптическое сжатие контекста", которое позволяет существенно снизить стоимость обработки, при этом сохраняя впечатляющую точность распознавания на уровне 97-99%.🎯
Модель демонстрирует качество, сопоставимое с более тяжеловесными решениями, но при значительно меньших вычислительных затратах.🚀
ИИ способен обрабатывать 200 тыс. страниц в день на ОДНОМ графическом процессоре.
================
Источник
🗣DeepDen
Эта открытая модель не просто извлекает текст, но и восстанавливает структуру документа, включая заголовки и таблицы.
Она идеально подходит для индексации, доступна на платформе Hugging Face и GitHub под лицензией MIT.
Ключевая инновация — "оптическое сжатие контекста", которое позволяет существенно снизить стоимость обработки, при этом сохраняя впечатляющую точность распознавания на уровне 97-99%.🎯
Модель демонстрирует качество, сопоставимое с более тяжеловесными решениями, но при значительно меньших вычислительных затратах.🚀
ИИ способен обрабатывать 200 тыс. страниц в день на ОДНОМ графическом процессоре.
================
Источник
🗣DeepDen
Учёные доказали, что нейросети тоже тупеют из-за быстрого контента.
ИИ-моделям несколько недель скармливали всё самое мусорное из интернета (короткие видео, посты в твиттере, мемы, новости уровня «В С Ё» и т.д.). В результате нейронки действительно испытали брейнрот и сильно деградировали: минус 23% в логике и минус 38% в понимании длинных текстов. Этика и «здоровое поведение» тоже ухудшились, а также повысились показатели нарциссизма и психопатии. После этого исследователи пробовали переобучить модели уже на хороших данных, но эффект был минимальным — полностью ум не вернулся, а следы деградации остались. Учёные отметили, что всё это очень похоже на то, как быстрый контент влияет на людей.
🗣DeepDen
ИИ-моделям несколько недель скармливали всё самое мусорное из интернета (короткие видео, посты в твиттере, мемы, новости уровня «В С Ё» и т.д.). В результате нейронки действительно испытали брейнрот и сильно деградировали: минус 23% в логике и минус 38% в понимании длинных текстов. Этика и «здоровое поведение» тоже ухудшились, а также повысились показатели нарциссизма и психопатии. После этого исследователи пробовали переобучить модели уже на хороших данных, но эффект был минимальным — полностью ум не вернулся, а следы деградации остались. Учёные отметили, что всё это очень похоже на то, как быстрый контент влияет на людей.
🗣DeepDen