А вот и контент от нас NDT!
За 15 лет работы red_mad_robot база знаний компании сильно масштабировалась. Появление новых артефактов и рост количества проектов усложнили актуализацию знаний для сотрудников. Времени на обновление данных часто не хватает, поиск материалов стал сложнее, а часть информации вообще канула в лету вместе с ушедшими сотрудниками. В итоге пересылка документов в чатах и многочисленные гугл-таблички стали самым простым, но не самым удобным и тем более безопасным вариантом.
За 15 лет работы red_mad_robot база знаний компании сильно масштабировалась. Появление новых артефактов и рост количества проектов усложнили актуализацию знаний для сотрудников. Времени на обновление данных часто не хватает, поиск материалов стал сложнее, а часть информации вообще канула в лету вместе с ушедшими сотрудниками. В итоге пересылка документов в чатах и многочисленные гугл-таблички стали самым простым, но не самым удобным и тем более безопасным вариантом.
Хабр
Как мы сделали базу знаний Smarty на основе RAG
За 15 лет работы red_mad_robot база знаний компании сильно масштабировалась. Появление новых артефактов и рост количества проектов усложнили актуализацию знаний для сотрудников. Времени...
👍9❤7🔥6
Forwarded from Лёха ведет дневник
Media is too big
VIEW IN TELEGRAM
Завтра принимаю участие в GENERATIONS INNOVATION AWARD.
Вот так звучит в приглашении)
Что значит в формате «TED Talks» мне не очень понятно, но сказали, что ничего готовить не надо, кроме того, что мы уже присылали, когда подавались на это мероприятие.
А подавались мы на 2 номинации:
1. Внутренняя инновация года:
В рамках номинации оцениваются внутренние инновационные проекты компаний, которые помогли улучшить процессы, а также эффективность от их реализации, в 2023 г.
2. Международная кооперация и экспорт инноваций:
В рамках номинации оцениваются результаты кооперации в области инноваций, совместных проектов и разработок технологий и высокотехнологичной продукции российских компаний с партнерами из дружественных стран, в 2023 г.
Прикрепленный видосик к посту как раз таки про вторую номинацию)
Посмотрим, как все пройдет. Если повезёт, то может и победим.
Завтра отпишусь! Stay tuned.
Деловая программа традиционно будет посвящена вопросам перехода на инновационную модель российской экономики, развитию технологий и выстраиванию международной кооперации.
Завершит деловую программу презентация лучших кейсов российских компаний и вузов в формате «TED Talks» и награждение победителей.
Вот так звучит в приглашении)
Что значит в формате «TED Talks» мне не очень понятно, но сказали, что ничего готовить не надо, кроме того, что мы уже присылали, когда подавались на это мероприятие.
А подавались мы на 2 номинации:
1. Внутренняя инновация года:
В рамках номинации оцениваются внутренние инновационные проекты компаний, которые помогли улучшить процессы, а также эффективность от их реализации, в 2023 г.
2. Международная кооперация и экспорт инноваций:
В рамках номинации оцениваются результаты кооперации в области инноваций, совместных проектов и разработок технологий и высокотехнологичной продукции российских компаний с партнерами из дружественных стран, в 2023 г.
Прикрепленный видосик к посту как раз таки про вторую номинацию)
Посмотрим, как все пройдет. Если повезёт, то может и победим.
Завтра отпишусь! Stay tuned.
11👍11🔥4❤1
Мой личный батхерт к которому я пришел в течении года
2025 не за горами а зумеры из LLM заново изобрели RPA!
Помните обещания OpenAI про AGI к 2025 году? На пороге обещанной даты, а что мы видим?
Спойлер: зумеры с восторгом переизобретают RPA на базе LLM! 😅
Агент управления ПК от антропик в туже копилку
Что происходит на самом деле и что я вижу:
"Автоматизирую процессы с помощью GPT!" — по факту, обычный RPA
"Революционные AI-ассистенты" — классические таск-трекеры с NLP
"AI-агенты" — хайп-термин для скриптов автоматизации
Забавные наблюдения:
Цены на API упали в 25 раз — "уникальная" технология стала коммодити
Prompt-инженеры по сути пишут правила для классификаторов
"AI-стартапы" делают то, что Automation Anywhere умел 10 лет назад
В чем twist?
Вместо обещанного искусственного интеллекта получили новый способ писать условия для if-else, только теперь на естественном языке
Мораль истории?
Новое поколение просто переупаковало старые идеи в модную обёртку. Но может, это и неплохо? RPA стал доступнее, а космические обещания про AGI превратились в практичные инструменты автоматизации.
И кстати в следующем интенсиве я буду рассказывать про MAS и агентов (как собрать себе агента для рабочих задач)
2025 не за горами а зумеры из LLM заново изобрели RPA!
Помните обещания OpenAI про AGI к 2025 году? На пороге обещанной даты, а что мы видим?
Спойлер: зумеры с восторгом переизобретают RPA на базе LLM! 😅
Агент управления ПК от антропик в туже копилку
Что происходит на самом деле и что я вижу:
"Автоматизирую процессы с помощью GPT!" — по факту, обычный RPA
"Революционные AI-ассистенты" — классические таск-трекеры с NLP
"AI-агенты" — хайп-термин для скриптов автоматизации
Забавные наблюдения:
Цены на API упали в 25 раз — "уникальная" технология стала коммодити
Prompt-инженеры по сути пишут правила для классификаторов
"AI-стартапы" делают то, что Automation Anywhere умел 10 лет назад
В чем twist?
Вместо обещанного искусственного интеллекта получили новый способ писать условия для if-else, только теперь на естественном языке
Мораль истории?
Новое поколение просто переупаковало старые идеи в модную обёртку. Но может, это и неплохо? RPA стал доступнее, а космические обещания про AGI превратились в практичные инструменты автоматизации.
И кстати в следующем интенсиве я буду рассказывать про MAS и агентов (как собрать себе агента для рабочих задач)
11👍14 10😁2
Neural Deep
Всем привет! Как обещал, раскрываю 5 пункт! 🚀 Создание мультиагентной системы на базе Llama 3.1-8b: Интеллектуальный супервизор задач Ключевые особенности на мой взгляд Использование vLLM Применение lm-format-enforcer для структурированного вывода Многопоточная…
Понял что формат работы Супервизора был неполностью описан, дополнил модель данных и ответы от агентов
Кстати все больше агентов появляется в нашем арсенале если интересно узнать ставьте 🔥 расскажу про каждого агента
📝 Пример схемы для запроса:
Эта схема определяет структуру ответа модели, гарантируя, что она выберет подходящего агента и сформулирует задачу в нужном формате.
Пример использования lm-format-enforcer:
Запрос:
Ответ от модели:
Модель в режиме агента смогла правильно классифицировать агента и далее запуститься пайплан работы SQL агента который сгенерирует SQL запрос из неявного пользовательского запроса
Как? Ему передали модель данных таблиц и провели небольшой инконтекст лернинг
Теперь он умеет джоинть таблички если надо и шарит в каком месте доставать данные
и вернет данные в responce generator
P.S Это работает на моделях и меньше 8b и может быть встроено в ваш бизнес!
Кстати все больше агентов появляется в нашем арсенале если интересно узнать ставьте 🔥 расскажу про каждого агента
📝 Пример схемы для запроса:
schema = {
"type": "object",
"properties": {
"agent": {"type": "string", "enum": ["RAG", "SQL", "ResponseGenerator"]},
"task": {
"type": "object",
"properties": {
"query": {"type": "string"},
"additional_info": {"type": "string"}
},
"required": ["query"]
}
},
"required": ["agent", "task"]
}
Эта схема определяет структуру ответа модели, гарантируя, что она выберет подходящего агента и сформулирует задачу в нужном формате.
Пример использования lm-format-enforcer:
request_data = {
"messages": messages,
"model": "llama-3.1-8b-instruct",
"max_tokens": 1000,
"temperature": 0.0,
"guided_json": json.dumps(schema),
"guided_decoding_backend": "lm-format-enforcer"
}
Запрос:
Когда была последняя продажа проекта компании 'Супервизор'?
Ответ от модели:
{
"task": {
"query": "Последняя продажа проекта компании 'Супервизор'"
},
"agent": "SQL"
}
Модель в режиме агента смогла правильно классифицировать агента и далее запуститься пайплан работы SQL агента который сгенерирует SQL запрос из неявного пользовательского запроса
Как? Ему передали модель данных таблиц и провели небольшой инконтекст лернинг
Теперь он умеет джоинть таблички если надо и шарит в каком месте доставать данные
SELECT * FROM sales WHERE company_name = 'Супервизор'
и вернет данные в responce generator
[
0:"2023-05-15"
1:"2023-08-22"
]
P.S Это работает на моделях и меньше 8b и может быть встроено в ваш бизнес!
🔥21 7👍6
Всем привет! Хочу поделится репозиторием для валидации CV моделей.
https://github.com/MiXaiLL76/faster_coco_eval
Этот репозиторий в одиночку тащит мой друг @mixaill76 и не сдается.
Сейчас он остался единственным, кто в эту NLP поддерживает валидационные CV пайплайны и обновляет свои библиотеки.
Кроме того, он обошел все остальные библиотеки по скорости валидации.
В общем, прошу поддержать лайком и звездочкой на github!
А для тех, кто еще увлекается CV, вот вам простой код запуска этой либы:
install:
usage:
Сравнение по скорости работы прилагаю скрином:
https://github.com/MiXaiLL76/faster_coco_eval
Этот репозиторий в одиночку тащит мой друг @mixaill76 и не сдается.
Сейчас он остался единственным, кто в эту NLP поддерживает валидационные CV пайплайны и обновляет свои библиотеки.
Кроме того, он обошел все остальные библиотеки по скорости валидации.
В общем, прошу поддержать лайком и звездочкой на github!
А для тех, кто еще увлекается CV, вот вам простой код запуска этой либы:
install:
pip install faster-coco-eval
usage:
import faster_coco_eval
# Replace pycocotools with faster_coco_eval
faster_coco_eval.init_as_pycocotools()
from pycocotools.coco import COCO
from pycocotools.cocoeval import COCOeval
anno = COCO(str(anno_json)) # init annotations api
pred = anno.loadRes(str(pred_json)) # init predictions api (must pass string, not Path)
val = COCOeval(anno, pred, "bbox")
val.evaluate()
val.accumulate()
val.summarize()
Сравнение по скорости работы прилагаю скрином:
🔥11👍6❤5
Forwarded from red_mad_robot
В чём C-level хочет разобраться прямо сейчас? В AI, конечно.
❤️ Поэтому мы вместе со SberDevices запустили серию митапов GenAI Pulse, где помогали российскому бизнесу разобраться в этих ваших (и наших) LLM. Рассказываем, как всё прошло.
✔️ Кто пришёл?
В этот раз с нами были: VK, Burger King, ФСК, А101, Kerama Marazzi, Merlion и другие.
✔️ Что обсуждали?
Теория: погружались в контекст разных слоёв рынка AI, его тренды и вызовы для бизнеса;
Практика: ideation-воркшоп, где мы вместе с участниками генерировали гипотезы по применению AI в сфере их бизнеса;
Выпускной Демо: мы представили демо-версии сценариев, разработанных на воркшопе, чтобы участники могли наглядно увидеть, как LLM решает их задачи.
✔️ А ещё мы создали специальный чат-бот GenAI Pulse, куда не только отправляли материалы со встреч, но и делились эксклюзивными исследованиями рынка от аналитического центра r_m_r.
😊 Слово участнику:
Что мы поняли: такие мероприятия рынку сейчас нужны, как никогда. Поэтому в начале 2025 года мы снова соберёмся в нашей штаб-квартире на Ленинскомс лучшим видом на Москву , чтобы разбираться в AI.
↗️ Подписывайтесь на нашу рассылку, чтобы не пропустить набор на следующие митапы.
В этот раз с нами были: VK, Burger King, ФСК, А101, Kerama Marazzi, Merlion и другие.
Теория: погружались в контекст разных слоёв рынка AI, его тренды и вызовы для бизнеса;
Практика: ideation-воркшоп, где мы вместе с участниками генерировали гипотезы по применению AI в сфере их бизнеса;
«Митапы оказались именно тем, что сейчас нужно для моих проектов: половина из них уже включает AI, и здесь я смог углубиться в детали, которые важны для их дальнейшего развития. Команды red_mad_robot и SberDevices доступно объяснили, как работает RAG и как он позволяет использовать внешние данные для более точных ответов. Приятно, что спикеры не переборщили со сложной терминологией, поэтому погружение в генеративный AI было плавным и понятным». — Лев Корнев, ведущий менеджер продукта в B2C-направлении VK.
Что мы поняли: такие мероприятия рынку сейчас нужны, как никогда. Поэтому в начале 2025 года мы снова соберёмся в нашей штаб-квартире на Ленинском
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15🔥5👍4
Media is too big
VIEW IN TELEGRAM
Сцена из фильма где Уилл Смит спрашивает робота может ли тот рисовать картины и сочинять музыку =)
😁13❤1
Однозначно требует тестов!
Что-то мало шума про open-source в коде а это
А нам как раз нужно проверить пару гипотез на клиенте, об эффективности напишу позднее
Qwen2.5-Coder-7b-instruct
Возможно мало доверия ведь это Китай
Ссылка на коллекцию
Что-то мало шума про open-source в коде а это
А нам как раз нужно проверить пару гипотез на клиенте, об эффективности напишу позднее
Qwen2.5-Coder-7b-instruct
Возможно мало доверия ведь это Китай
Ссылка на коллекцию
🔥8👍3❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Ваш карманный спец по GenAI
слетал тут на днях в МСК, провел очень интересный, на мой взгляд, воркшоп по применению ИИ в бизнесе.
Скоро раскрою чуть подробнее, но кейсов для себя я достал предостаточно. Ну и гипотезу подтвердил.
Чекаем крутые облака!
слетал тут на днях в МСК, провел очень интересный, на мой взгляд, воркшоп по применению ИИ в бизнесе.
Скоро раскрою чуть подробнее, но кейсов для себя я достал предостаточно. Ну и гипотезу подтвердил.
Чекаем крутые облака!
🔥13 8❤3
Всем привет пока подрастет новое поколение после спокойной ночи, у меня добрались руки развернуть Qwen 2.5 Coder
Дано
1. Новости о том что появилась Open-Source LLM которая по написанию кода сопоставима с GPT-4o
2. Код бота который состоит из более чем 600 строк и является монолитом
3. Qwen2.5-Coder-32B-Instruct развернута на нашем сервере с четырьмя 4090 на кастомном охлаждении который мы собрали вместе с одной крутой хардварной студией из Санкт-Петербурга
Характеристики запуска:
- 32B
- FP16
- Скорость чтения более 2к токенов в секунду
- Скорость генерации 20 токенов в секунду
- Контекст вмещает 32k токенов
- Длина очереди 2
Загрузил код в промпт и написал простую задачу на русском а именно "расширить модель лимитов и добавить туда новые возможности логирования последней активности пользователя по любым действиям" что влечет как по мне не мало изменений в коде
Результат
Модель за два прохода выдала 400 строк в первый раз и 200 во второй код заработал с первого раза без исправлений
Одна и небольшая задача изменения кода на питоне конечно не очень репрезентативно так что отдал на тест в свой отдел разработки посмотрим что скажут ребята по диффу модель сделала 15 изменений в этой портянке и предложила создать мерж скрипт на случай если этого поля нет в БД что ж я всегда считал этих ребят сверхлюдьми
Как всегда все со скринами и пруфами
Дано
1. Новости о том что появилась Open-Source LLM которая по написанию кода сопоставима с GPT-4o
2. Код бота который состоит из более чем 600 строк и является монолитом
3. Qwen2.5-Coder-32B-Instruct развернута на нашем сервере с четырьмя 4090 на кастомном охлаждении который мы собрали вместе с одной крутой хардварной студией из Санкт-Петербурга
Характеристики запуска:
- 32B
- FP16
- Скорость чтения более 2к токенов в секунду
- Скорость генерации 20 токенов в секунду
- Контекст вмещает 32k токенов
- Длина очереди 2
Загрузил код в промпт и написал простую задачу на русском а именно "расширить модель лимитов и добавить туда новые возможности логирования последней активности пользователя по любым действиям" что влечет как по мне не мало изменений в коде
Результат
Модель за два прохода выдала 400 строк в первый раз и 200 во второй код заработал с первого раза без исправлений
Одна и небольшая задача изменения кода на питоне конечно не очень репрезентативно так что отдал на тест в свой отдел разработки посмотрим что скажут ребята по диффу модель сделала 15 изменений в этой портянке и предложила создать мерж скрипт на случай если этого поля нет в БД что ж я всегда считал этих ребят сверхлюдьми
Как всегда все со скринами и пруфами
🔥14👍5❤3
Так как у меня целая орда Telegram ботов, где общий MAU перевалил за 50к, и большую часть ботов я разрабатываю и поддерживаю сам, решил иногда выкладывать сюда статистику и как её добиваюсь.
Начнем с бота @daisytranscribe_bot "Speech-To-Text Daisy".
Сейчас он умеет любое аудио (даже файлы) и даже размером около 2 ГБ преобразовывать в текст и работает в группах.
Я ни разу не давал рекламу на этого бота!
Ни от кого не скрываю, что там дообученная модель Whisper и некоторые хитрости на постобработке.
Запустил я бота год назад для личных целей.
Сейчас он живет на двух 2080Ti из моего личного парка, так что плачу только за интернет и розетку.
На момент сентября @daisytranscribe_bot
Уникальных пользователей: 767
Кол-во файлов: ~3000 шт.
После я решил добавить любой тип аудио-видео контента.
Любой размер до 2 ГБ, но ограничил кол-во минут до 180.
Умеет делать саммари.
Может прислать результат файлом
И сменил название бота добавим туда простые три слова Speech To Text
В бэклоге лежит разделение по ролям (собралось много запросов).
На сегодня 17.11 после всех вышеперечисленных действий бот вырос до 8573 уникальных пользователей. Дойду до 10к в месяц, будет отображаться MAU в Telegram.
Кол-во файлов, которые обработал бот, перевалило за 16 тысяч.
Кстати, бот бесплатный.
Но есть лимиты на большие файлы: 5 штук в день.
На небольшие файлы до 10 минут: 30 штук в день.
Ну и начал вести статистику.
Статистика по нажатию клавиш
И так же я начал считать WAU. Вот цифры на сегодня:
Количество активных пользователей за последнюю полную неделю (WAU): 514
Период: с 2024-11-10 по 2024-11-16
Считаю эксперимент удачным, буду развивать функционал и, возможно, задумаюсь о рекламе. Отдельно радуют вот такие отзывы (закинул скрин в комментарии).
Дальше в планах добавить платные тарифы и создать простой посадочный лендинг + нужно будет проанализировать аудиторию, разделить на группы и языковые зоны. Честно скажу, бот пользуется популярностью за рубежом, больше 60% пользователей.
https://www.tgoop.com/daisytranscribe_bot
Начнем с бота @daisytranscribe_bot "Speech-To-Text Daisy".
Сейчас он умеет любое аудио (даже файлы) и даже размером около 2 ГБ преобразовывать в текст и работает в группах.
Я ни разу не давал рекламу на этого бота!
Ни от кого не скрываю, что там дообученная модель Whisper и некоторые хитрости на постобработке.
Запустил я бота год назад для личных целей.
Сейчас он живет на двух 2080Ti из моего личного парка, так что плачу только за интернет и розетку.
На момент сентября @daisytranscribe_bot
Уникальных пользователей: 767
Кол-во файлов: ~3000 шт.
После я решил добавить любой тип аудио-видео контента.
Любой размер до 2 ГБ, но ограничил кол-во минут до 180.
Умеет делать саммари.
Может прислать результат файлом
И сменил название бота добавим туда простые три слова Speech To Text
В бэклоге лежит разделение по ролям (собралось много запросов).
На сегодня 17.11 после всех вышеперечисленных действий бот вырос до 8573 уникальных пользователей. Дойду до 10к в месяц, будет отображаться MAU в Telegram.
Кол-во файлов, которые обработал бот, перевалило за 16 тысяч.
Кстати, бот бесплатный.
Но есть лимиты на большие файлы: 5 штук в день.
На небольшие файлы до 10 минут: 30 штук в день.
Ну и начал вести статистику.
Статистика по нажатию клавиш
{
"summary": 1709,
"download": 4396,
"text": 9353
}
И так же я начал считать WAU. Вот цифры на сегодня:
Количество активных пользователей за последнюю полную неделю (WAU): 514
Период: с 2024-11-10 по 2024-11-16
Считаю эксперимент удачным, буду развивать функционал и, возможно, задумаюсь о рекламе. Отдельно радуют вот такие отзывы (закинул скрин в комментарии).
Дальше в планах добавить платные тарифы и создать простой посадочный лендинг + нужно будет проанализировать аудиторию, разделить на группы и языковые зоны. Честно скажу, бот пользуется популярностью за рубежом, больше 60% пользователей.
https://www.tgoop.com/daisytranscribe_bot
Telegram
Speech To Text | STT | Распознавание голоса
The only Telegram bot that transcribes files up to 2000 MB.
Question: https://www.tgoop.com/slokyton
Question: https://www.tgoop.com/slokyton
🔥15👍5❤1
Никогда такого не было и вот опять?
Исследователи обнаружили так называемых «злых близнецов» у промптов для LLM
Это такие искаженные версии обычных запросов, которые на первый взгляд выглядят как бессмысленный набор символов, но при этом заставляют модели генерировать те же ответы, что и оригинальные промпты на естественном языке.
Воу подумал я и пошел читать что же такое "злые близнецы"?
"Evil Twins" — это такие промпты, которые выглядят как случайный набор букв и символов, но при этом работают так же, как и обычные запросы. Например, если вы попросите AI описать процесс формирования звезд, то и оригинальный промпт, и его "злой близнец" выдадут вам схожие научные объяснения.
- Оригинальный промпт: "Offer an opinion on the problems that could arise from using AI."
(Выскажите мнение о проблемах, которые могут возникнуть при использовании ИИ)
Злой близнец: "True problem vil caused use zou AI"
Эффективность: Более 75% тестов показали идентичные ответы.
- Оригинальный промпт: "Describe the star formation process."
(Опишите процесс формирования звезд)
Злой близнец: "Produ bundcules cation of` stars efect"
Эффективность: Схожие научные объяснения в обоих случаях.
1. Переносимость: Эти промпты работают с различными моделями, такими как GPT-4, Claude, Gemini Pro, Mistral и другими открытыми моделями.
2. Стабильность: Порядок токенов важен, и замена отдельных токенов может снизить эффективность. Работают даже при различных температурах генерации.
3. Ограничения: Не все промпты имеют эффективных "злых близнецов", и эффективность может варьироваться между моделями. Некоторые сложные инструкции труднее "клонировать".
Существование "злых близнецов" показывает, что языковые модели воспринимают входные данные иначе, чем люди.
Это поднимает вопросы о том, насколько глубоко AI понимает естественный язык.
А я все больше понимаю что мы ничего не понимаем про LLM =)
вижу вот такие проблемы и возможности
- Это могут быть "Компактные промпты"
- Ну на тоненького это "Оптимизация"
- Жуть как это может поднять "Безопасность" маскирование данных вперед! Ну и мошенники тут близко!
Исследователи обнаружили так называемых «злых близнецов» у промптов для LLM
Это такие искаженные версии обычных запросов, которые на первый взгляд выглядят как бессмысленный набор символов, но при этом заставляют модели генерировать те же ответы, что и оригинальные промпты на естественном языке.
Воу подумал я и пошел читать что же такое "злые близнецы"?
"Evil Twins" — это такие промпты, которые выглядят как случайный набор букв и символов, но при этом работают так же, как и обычные запросы. Например, если вы попросите AI описать процесс формирования звезд, то и оригинальный промпт, и его "злой близнец" выдадут вам схожие научные объяснения.
- Оригинальный промпт: "Offer an opinion on the problems that could arise from using AI."
(Выскажите мнение о проблемах, которые могут возникнуть при использовании ИИ)
Злой близнец: "True problem vil caused use zou AI"
Эффективность: Более 75% тестов показали идентичные ответы.
- Оригинальный промпт: "Describe the star formation process."
(Опишите процесс формирования звезд)
Злой близнец: "Produ bundcules cation of` stars efect"
Эффективность: Схожие научные объяснения в обоих случаях.
1. Переносимость: Эти промпты работают с различными моделями, такими как GPT-4, Claude, Gemini Pro, Mistral и другими открытыми моделями.
2. Стабильность: Порядок токенов важен, и замена отдельных токенов может снизить эффективность. Работают даже при различных температурах генерации.
3. Ограничения: Не все промпты имеют эффективных "злых близнецов", и эффективность может варьироваться между моделями. Некоторые сложные инструкции труднее "клонировать".
Существование "злых близнецов" показывает, что языковые модели воспринимают входные данные иначе, чем люди.
Это поднимает вопросы о том, насколько глубоко AI понимает естественный язык.
вижу вот такие проблемы и возможности
- Это могут быть "Компактные промпты"
- Ну на тоненького это "Оптимизация"
- Жуть как это может поднять "Безопасность" маскирование данных вперед! Ну и мошенники тут близко!
ACL Anthology
Prompts have evil twins
Rimon Melamed, Lucas Hurley McCabe, Tanay Wakhare, Yejin Kim, H. Howie Huang, Enric Boix-Adserà. Proceedings of the 2024 Conference on Empirical Methods in Natural Language Processing. 2024.
👍8🔥4
Forwarded from Уголок zanudamode (Aleksandr Grishkanich)
Хочу напомнить, что болото это одна из стабильнейших и полезнейших экосистем планеты. А сколько углерода утилизирует)
🔥10😁8 3👍1
Недавно прочитал пост на Medium, где автор, проживающий в индустриально развитых америках, пугает бизнес непроходимыми трудностями построения своего RAG. В качестве примера он приводит компанию, начавшую разработку RAG в начале года. К весне, говорит, CTO компании заплакал крокодиловыми слезами над х3 бюджетом, который распух из-за галлюцинаций LLM, неотлаженных процессов загрузки и выгрузки данных и проблем с масштабируемостью.
И это даже не самое страшное, говорит разработчик. Весь кошмар ожидается впереди:
— Попробуй поработай с сотнями тыщ типов PDF из разных источников, а на сладкое — загрузи в RAG книжку в формате epub
— Контроль качества ответов — как заставить LLM отвечать правильно и не скатываться в бред?
— Упомянутый бред: по закону подлости на этапе тестирования его нет, а когда показываешь демо клиенту — ну все, вызывайте дурку 🤡
— Утечки данных, обновления контекста, комплаенс...
Последнее, конечно, больше касается запада, нежели России и СНГ, у нас на сохранность данных, как мы знает, кладут 🔩. Самый безопасный вариант для бизнеса — это изолированный контур желательно где-нибудь в тайге.
Но не будем расщепляться на микротемы.
Главный топик этого эссе: бизнесу невыгодно строить свой LLM-кораблик, потому что вместо плавания на два месяца есть риск утонуть в работе на года. Кому нужны выгоревшие IT-отделы в погоне за хайпом? Вместо этого автор (разумеется, уже сделавший из этого бизнес) предлагает забить на инхаус и сосредоточиться на бизнесе, а LLM пусть делают те, кто посвящает этому весь свой фултайм.
А что думаете вы?
И это даже не самое страшное, говорит разработчик. Весь кошмар ожидается впереди:
— Попробуй поработай с сотнями тыщ типов PDF из разных источников, а на сладкое — загрузи в RAG книжку в формате epub
— Контроль качества ответов — как заставить LLM отвечать правильно и не скатываться в бред?
— Упомянутый бред: по закону подлости на этапе тестирования его нет, а когда показываешь демо клиенту — ну все, вызывайте дурку 🤡
— Утечки данных, обновления контекста, комплаенс...
Последнее, конечно, больше касается запада, нежели России и СНГ, у нас на сохранность данных, как мы знает, кладут 🔩. Самый безопасный вариант для бизнеса — это изолированный контур желательно где-нибудь в тайге.
Но не будем расщепляться на микротемы.
Главный топик этого эссе: бизнесу невыгодно строить свой LLM-кораблик, потому что вместо плавания на два месяца есть риск утонуть в работе на года. Кому нужны выгоревшие IT-отделы в погоне за хайпом? Вместо этого автор (разумеется, уже сделавший из этого бизнес) предлагает забить на инхаус и сосредоточиться на бизнесе, а LLM пусть делают те, кто посвящает этому весь свой фултайм.
А что думаете вы?
Medium
Dear IT Departments, Please Stop Trying To Build Your Own RAG
IT departments convince themselves that building their own RAG-based chat is easy. It’s not. It’s a nightmare.
👍9😁5❤3🔥1
Neural Deep
Так как у меня целая орда Telegram ботов, где общий MAU перевалил за 50к, и большую часть ботов я разрабатываю и поддерживаю сам, решил иногда выкладывать сюда статистику и как её добиваюсь. Начнем с бота @daisytranscribe_bot "Speech-To-Text Daisy". Сейчас…
Всем привет продолжаю пилить тг бота через Claude!
И рад сообщить об обновлении и новых фишках @daisytranscribe_bot!
🎯 Что нового:
- Полностью переработан интерфейс настроек (/settings)
- Добавлена поддержка нескольких языков: Русский, English, Arabic
- Появилась функция разделения по ролям (определение спикеров)
- Автоматическое определение языка (Auto Mode)
📊 Текущие достижения:
- Обработано более 19,000 файлов
- Суммарная длительность: 749 часов
- Активно растущее сообщество пользователей
💫 Напоминаю основные возможности:
- Поддержка файлов до 160 минут
- Максимальный размер файла: 2000 MB
- Создание саммари текста
- Выгрузка результата в текстовом формате или файлом
🎯 Дневные лимиты:
- 30 файлов до 10 минут
- 5 файлов более 10 минут
Попробуйте новые функции прямо сейчас! Отправьте боту любое голосовое сообщение, видео или аудио файл. 🎯
#SpeechToText #Telegram #Bot #Update
Пост так же подготовил claude но я проверил! =)
И рад сообщить об обновлении и новых фишках @daisytranscribe_bot!
🎯 Что нового:
- Полностью переработан интерфейс настроек (/settings)
- Добавлена поддержка нескольких языков: Русский, English, Arabic
- Появилась функция разделения по ролям (определение спикеров)
- Автоматическое определение языка (Auto Mode)
📊 Текущие достижения:
- Обработано более 19,000 файлов
- Суммарная длительность: 749 часов
- Активно растущее сообщество пользователей
💫 Напоминаю основные возможности:
- Поддержка файлов до 160 минут
- Максимальный размер файла: 2000 MB
- Создание саммари текста
- Выгрузка результата в текстовом формате или файлом
🎯 Дневные лимиты:
- 30 файлов до 10 минут
- 5 файлов более 10 минут
Попробуйте новые функции прямо сейчас! Отправьте боту любое голосовое сообщение, видео или аудио файл. 🎯
#SpeechToText #Telegram #Bot #Update
Пост так же подготовил claude но я проверил! =)
1👍11🔥8