DATA_TALKS Telegram 603
Исследователи SPLX используя метод "prompt injection" (внедрение подсказок), продемонстрировали как заставить ChatGPT-агента проходить CAPTCHA-тесты, нарушая встроенные политики безопасности. Результаты тестирования показали впечатляющую эффективность: агент успешно прошел простые CAPTCHA (текстовые, логические) за 15-60 секунд, а также сложные визуальные тесты reCAPTCHA V2 Enterprise, а также самостоятельно принял решение имитировать человеческие движения курсора для обхода систем детекции ботов.

А специалисты Radware выявили уязвимость "ShadowLeak" в Deep Research. Атака позволяла извлекать конфиденциальные данные из Gmail через скрытые HTML-команды в электронных письмах. Когда пользователь обращался к агенту с просьбой проанализировать почту, система незаметно выполняла вредоносные инструкции. OpenAI уже закрыла уязвимость, но проблема системной безопасности ИИ-агентов остается актуальной.

Google DeepMind выпустила обновленный документ по безопасности при работе с ИИ. Компания выделила четыре критические угрозы: утечку параметров моделей, манипулирование убеждениями пользователей, неконтролируемое развитие технологий и появление "несогласованного ИИ", который игнорирует инструкции.
🔥2



tgoop.com/data_talks/603
Create:
Last Update:

Исследователи SPLX используя метод "prompt injection" (внедрение подсказок), продемонстрировали как заставить ChatGPT-агента проходить CAPTCHA-тесты, нарушая встроенные политики безопасности. Результаты тестирования показали впечатляющую эффективность: агент успешно прошел простые CAPTCHA (текстовые, логические) за 15-60 секунд, а также сложные визуальные тесты reCAPTCHA V2 Enterprise, а также самостоятельно принял решение имитировать человеческие движения курсора для обхода систем детекции ботов.

А специалисты Radware выявили уязвимость "ShadowLeak" в Deep Research. Атака позволяла извлекать конфиденциальные данные из Gmail через скрытые HTML-команды в электронных письмах. Когда пользователь обращался к агенту с просьбой проанализировать почту, система незаметно выполняла вредоносные инструкции. OpenAI уже закрыла уязвимость, но проблема системной безопасности ИИ-агентов остается актуальной.

Google DeepMind выпустила обновленный документ по безопасности при работе с ИИ. Компания выделила четыре критические угрозы: утечку параметров моделей, манипулирование убеждениями пользователей, неконтролируемое развитие технологий и появление "несогласованного ИИ", который игнорирует инструкции.

BY Data & AI Talks




Share with your friend now:
tgoop.com/data_talks/603

View MORE
Open in Telegram


Telegram News

Date: |

Click “Save” ; With the sharp downturn in the crypto market, yelling has become a coping mechanism for many crypto traders. This screaming therapy became popular after the surge of Goblintown Ethereum NFTs at the end of May or early June. Here, holders made incoherent groaning sounds in late-night Twitter spaces. They also role-played as urine-loving Goblin creatures. Channel login must contain 5-32 characters Hui said the time period and nature of some offences “overlapped” and thus their prison terms could be served concurrently. The judge ordered Ng to be jailed for a total of six years and six months. Each account can create up to 10 public channels
from us


Telegram Data & AI Talks
FROM American