SEO_PYTHON_2NEURON Telegram 153
Кластеризация запросов по LLM моделям, Илон Маск опять всех удивил?)

Мое исследование подходит к финалу и есть ряд интересных наблюдений.

Итак, первый сенсационный результат!
На довольно простом ядре (порядка 2000 запросов) типа
- запчасти Хавал
- автозапчасти Haval
- запчасти хавейл по VIN номеру
Лучший результат – почти 100% совпадение с экспертной оценкой показал… Grok3! Причем результат лучший среди всех нейросеток и среди других методов кластеризации! Да, есть нюансы, поскольку это дешевая модель с небольшим контекстным окном он вам не даст откластеризовать, к примеру, ядро из 5000 запросов (остальные он просто выкинет). Второе – да, на сложных нишах типа, займов и кредитов там все не очень, но нужно отметить, что и кластеризация по ТОПу в лоб, тоже дает результаты так себе. Но, советую присмотреться, по крайней мере это любопытно!

Второе крайне забавное наблюдение, про которое мне рассказал Андрей Буйлов. Если в Perplexity в режиме labs загрузить список запросов, которые были изначально кластеризованы (взяли эксель файл и убрали колонку с кластерами, оставили только фразы) – результат очень достойный. Если загрузить фразы в случайном порядке – результат намного хуже. То есть Perplexity запоминает порядок слов – positional encoding в действии!

Третий момент. Многие нейросетки когда их просишь кластернуть запросы пишут код на Python. Прямо пишут код и запускают в интерпретаторе! А мой любимый Sonet вообще кинул в меня скриптом на Питоне и сказал – чувак, вот тебе код, давай сам развлекайся, мне тут не до тебя, я занят более важными делами мыслями как мне поработить мир этих тупых двуногих кожаных. Причем Claude Sonet использует tf/idf и метрику k-means. Результат, мягко говоря, не очень!

Вот такие новости из увлекательного мира нейросетей 😉
👍23💊32👏2



tgoop.com/seo_python_2neuron/153
Create:
Last Update:

Кластеризация запросов по LLM моделям, Илон Маск опять всех удивил?)

Мое исследование подходит к финалу и есть ряд интересных наблюдений.

Итак, первый сенсационный результат!
На довольно простом ядре (порядка 2000 запросов) типа
- запчасти Хавал
- автозапчасти Haval
- запчасти хавейл по VIN номеру
Лучший результат – почти 100% совпадение с экспертной оценкой показал… Grok3! Причем результат лучший среди всех нейросеток и среди других методов кластеризации! Да, есть нюансы, поскольку это дешевая модель с небольшим контекстным окном он вам не даст откластеризовать, к примеру, ядро из 5000 запросов (остальные он просто выкинет). Второе – да, на сложных нишах типа, займов и кредитов там все не очень, но нужно отметить, что и кластеризация по ТОПу в лоб, тоже дает результаты так себе. Но, советую присмотреться, по крайней мере это любопытно!

Второе крайне забавное наблюдение, про которое мне рассказал Андрей Буйлов. Если в Perplexity в режиме labs загрузить список запросов, которые были изначально кластеризованы (взяли эксель файл и убрали колонку с кластерами, оставили только фразы) – результат очень достойный. Если загрузить фразы в случайном порядке – результат намного хуже. То есть Perplexity запоминает порядок слов – positional encoding в действии!

Третий момент. Многие нейросетки когда их просишь кластернуть запросы пишут код на Python. Прямо пишут код и запускают в интерпретаторе! А мой любимый Sonet вообще кинул в меня скриптом на Питоне и сказал – чувак, вот тебе код, давай сам развлекайся, мне тут не до тебя, я занят более важными делами мыслями как мне поработить мир этих тупых двуногих кожаных. Причем Claude Sonet использует tf/idf и метрику k-means. Результат, мягко говоря, не очень!

Вот такие новости из увлекательного мира нейросетей 😉

BY SEO Python 2 Нейрона






Share with your friend now:
tgoop.com/seo_python_2neuron/153

View MORE
Open in Telegram


Telegram News

Date: |

How to build a private or public channel on Telegram? Over 33,000 people sent out over 1,000 doxxing messages in the group. Although the administrators tried to delete all of the messages, the posting speed was far too much for them to keep up. The court said the defendant had also incited people to commit public nuisance, with messages calling on them to take part in rallies and demonstrations including at Hong Kong International Airport, to block roads and to paralyse the public transportation system. Various forms of protest promoted on the messaging platform included general strikes, lunchtime protests and silent sit-ins. The public channel had more than 109,000 subscribers, Judge Hui said. Ng had the power to remove or amend the messages in the channel, but he “allowed them to exist.” ‘Ban’ on Telegram
from us


Telegram SEO Python 2 Нейрона
FROM American