tgoop.com/pwnai/517
Last Update:
Базы знаний - у всех они есть... Но как их можно улучшить ?
Просматривая доклады на оффзоне я увидел доклад, который называется "Данила Урванцев. Pentest Copilot, или Как я создал AI‑помощника по пентесту". Это не суперсложный доклад и он не имеет отношения именно к безопасности ии. Однако, автор поделился полезным советом о том, как прикрутить к своей базе знаний LLM.
Для чего ? Ну в первую очередь это как вариант дообучения модели на конкретных файлах (привет RAG) ... Ещё это как вариант быстро искать по своей информации. Идея крутая. Сейчас покажу как вы можете это без проблем сделать... + некоторый эксклюзив от Данилы....
Во первых, в качестве llm, которая будет работать над нашей инфой я предлагаю использовать (как и в оригинале) llama3. Она ставится очень просто через ollama(win,linux,osx):
ollama pull llama3
и
ollama serve
кстати, порт в Ollama для сервера можно прописать через переменные окружения, вот как это сделать в powershell(в остальных случаях я думаю что понятно:-):
$env:OLLAMA_HOST="127.0.0.1:11434"; ollama serve
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
http://localhost:3000/
, где собственно нас попросят зарегистрироваться в open-webui(проверки почты нет).
PPS ... есть ещё крутая альтернатива quivr - https://www.tgoop.com/ai_machinelearning_big_data/4529
Данила: А ещё есть плагин в обсидиан для AI, и в него можно как-раз просто дать ручку от OpenWebUI (потому что у него API как у OpenAI). Также есть плагин для поиска по всем чатам.