CODEBY_SEC Telegram 9046
⚛️ Photon

Инструмент на Python, разработанный для автоматизации сбора информации и представляет собой веб-краулер, который извлекает данные с веб-сайтов. Имеет настраиваемую глубину сканирования, поддерживает различные фильтры и позволяет сохранять данные в удобном формате.

Photon начинает работу с корневого URL и следует по всем обнаруженным ссылкам до заданной глубины. Затем анализирует HTML-код каждой страницы, используя библиотеку BeautifulSoup и регулярные выражения и извлекает данные в структурированном виде.

🕷 Извлекает следующие данные во время обхода
⏺️URL-адреса с параметрами/без;
⏺️различную информацию (электронная почта, аккаунты в социальных сетях и т.д.);
⏺️файлы (pdf, png, xml и т.д.);
⏺️секретные ключи и токены (auth/API);
⏺️JavaScript файлы и присутствующие в них конечные точки;
⏺️строки, соответствующие пользовательскому шаблону регулярных выражений;
⏺️поддомены и данные, связанные с DNS.

📌 Установка и использование
git clone https://github.com/s0md3v/Photon.git
cd Photon
pip install -r requirements.txt


Сканирование заданного URL с глубиной поиска 2:
python3 photon.py -u https://example.com -l 2


Поддерживает следующие опции:
--timeout: количество секунд, в течение которых следует ожидать, прежде чем считать, что запрос HTTP(S) не выполнен;
--delay: количество секунд ожидания между каждым запросом;
--threads:
указание количества одновременных запросов;
--level:
ограничение на глубину рекурсии при сканировании;
--cookies, --user-agent:
добавление Cookie в каждый HTTP-запрос, пользовательские агенты;
--exclude:
URL, соответствующие указанному регулярному выражению, не будут сканироваться и не будут отображаться в результатах поиска;
--seeds:
пользовательские начальные URL;
--only-urls:
не извлекаются различные файлы, сканируется только целевая страница;
--regex
: указывается шаблон для извлечения строк во время сканирования;
--keys: поиск строк с высокой энтропией;
--dns:
сохраняет поддомены в файле subdomains.txt, а также генерирует изображение с данными DNS целевого домена;
--wayback: извлекает архивные URL-адреса с сайта archive.org и использует их в качестве начальных.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍24🔥98🤔1



tgoop.com/codeby_sec/9046
Create:
Last Update:

⚛️ Photon

Инструмент на Python, разработанный для автоматизации сбора информации и представляет собой веб-краулер, который извлекает данные с веб-сайтов. Имеет настраиваемую глубину сканирования, поддерживает различные фильтры и позволяет сохранять данные в удобном формате.

Photon начинает работу с корневого URL и следует по всем обнаруженным ссылкам до заданной глубины. Затем анализирует HTML-код каждой страницы, используя библиотеку BeautifulSoup и регулярные выражения и извлекает данные в структурированном виде.

🕷 Извлекает следующие данные во время обхода
⏺️URL-адреса с параметрами/без;
⏺️различную информацию (электронная почта, аккаунты в социальных сетях и т.д.);
⏺️файлы (pdf, png, xml и т.д.);
⏺️секретные ключи и токены (auth/API);
⏺️JavaScript файлы и присутствующие в них конечные точки;
⏺️строки, соответствующие пользовательскому шаблону регулярных выражений;
⏺️поддомены и данные, связанные с DNS.

📌 Установка и использование

git clone https://github.com/s0md3v/Photon.git
cd Photon
pip install -r requirements.txt


Сканирование заданного URL с глубиной поиска 2:
python3 photon.py -u https://example.com -l 2


Поддерживает следующие опции:
--timeout: количество секунд, в течение которых следует ожидать, прежде чем считать, что запрос HTTP(S) не выполнен;
--delay: количество секунд ожидания между каждым запросом;
--threads:
указание количества одновременных запросов;
--level:
ограничение на глубину рекурсии при сканировании;
--cookies, --user-agent:
добавление Cookie в каждый HTTP-запрос, пользовательские агенты;
--exclude:
URL, соответствующие указанному регулярному выражению, не будут сканироваться и не будут отображаться в результатах поиска;
--seeds:
пользовательские начальные URL;
--only-urls:
не извлекаются различные файлы, сканируется только целевая страница;
--regex
: указывается шаблон для извлечения строк во время сканирования;
--keys: поиск строк с высокой энтропией;
--dns:
сохраняет поддомены в файле subdomains.txt, а также генерирует изображение с данными DNS целевого домена;
--wayback: извлекает архивные URL-адреса с сайта archive.org и использует их в качестве начальных.

BY Codeby




Share with your friend now:
tgoop.com/codeby_sec/9046

View MORE
Open in Telegram


Telegram News

Date: |

More>> Co-founder of NFT renting protocol Rentable World emiliano.eth shared the group Tuesday morning on Twitter, calling out the "degenerate" community, or crypto obsessives that engage in high-risk trading. Telegram message that reads: "Bear Market Screaming Therapy Group. You are only allowed to send screaming voice notes. Everything else = BAN. Text pics, videos, stickers, gif = BAN. Anything other than screaming = BAN. You think you are smart = BAN. There have been several contributions to the group with members posting voice notes of screaming, yelling, groaning, and wailing in different rhythms and pitches. Calling out the “degenerate” community or the crypto obsessives that engage in high-risk trading, Co-founder of NFT renting protocol Rentable World emiliano.eth shared this group on his Twitter. He wrote: “hey degen, are you stressed? Just let it out all out. Voice only tg channel for screaming”.
from us


Telegram Codeby
FROM American