Telegram Web
Ребята, не стоит вскрывать эту тему. Вы молодые, шутливые, вам все легко. Это не то. Это не Чикатило и даже не архивы спецслужб. Сюда лучше не лезть. Серьезно, любой из вас будет жалеть. Лучше закройте тему и забудьте, что тут писалось. Я вполне понимаю, что данным сообщением вызову дополнительный интерес, но хочу сразу предостеречь пытливых – стоп. Остальных просто не найдут.
Обычно увлечённые люди, которые разбираются в вопросе, меня восхищают. Но есть особая форма увлечённых людей, которые негативно транслируют свою маниакальную увлечённость на окружающих. В народе их называют "Что-то-дебилы".

Вот, например есть автомапер-дебилы, которые везде завозят автомапер и автомапят потом днями и ночами напролёт. А на собесе они потом такие с ебалом, как на картинке выше "Как вы в проекте модельки мапили? Руками? Ахахахаха, понятно".

Недавно приходилось с таким взаимодействовать, очень сильно хотелось расколотить ему ебучку. (не расколотил, я же за экраном только такой крутой).

Как же хорошо, что мои коллеги адекватные люди без что-то-дебилизма, я бы не смог каждый день иметь дело с что-то-дебилами.
👉 Новое видео на канале: https://youtu.be/HjAsqgYDWSI

P.S.
Ну и если я какой-то текст дочитываю до конца, то никогда не поленюсь поставить лайк и в комменте написать что-то типа: "Братан, хорош, давай, давай, вперёд! Контент в кайф, можно ещё? Вообще красавчик! Можно вот этого вот почаще?"
Блин, чёто я проспал появление Copilot'а в Windows. Запустил сегодня и выпал в осадочек.

КАК ЖЕ МЫ РАНЬШЕ ВЫЖИВАЛИ БЕЗ AI, ТО? Страшно вспоминать, те темные времена... 😱
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
ОАЭ или Бали: где выгоднее купить недвижимость?

Подумали что это рекламный пост? Я тоже подумал, что щас рекламный бахну, но нет.

Я не глор реакта, но он объективно лучший из других фронтенд фреймворков. И вот почему:

Самая главная задача фронтенд фреймворков - это РЕНДЕРИНГ. На все остальные фичи - насрать. У нас есть объективное бутылочное горлышко - Рендеринг. Все остальные вопросики решаются, а значит и не имеют значения. Нравится vuex? Подруби его к реакту. Ангуляр жирнее реакта? Есть же тришейкинг и чанкование.

А вот с рендером таких фокусов не провернёшь. Кто быстрее и бесплатнее по памяти рендерит, тот и победитель. Бенчмаркинг показывает, что реакт не лучший, но дело в том, что бенчмарки говнянные. Они замеряют кто рендерит 1000 строк список быстрее. Лол что? Кто рендерит список из 1000 строк? Про виртуализацию слышали? Надо быть быстрым не в бенчмаркинге, надо быть быстрым в проде.

И реакт в проде самый быстрый. За счёт того, что там шедулер, он вашу вереницу говна из запросов на изменение стейта в тысяче компонентов, если надо склеит, если надо распределит по приоритетам. И именно из-за этого бенчмаркинг проседает (оверхэд из-за распределения приоритетов и банчинге запросов на изменение стейта), но в проде заебок.

Вывод для тех, кто не понял:
> Реакт круче ангуляра и вуе за счёт единственно важного параметра - рендеринга
> Бенчмаркинг - хуйня
> Остальные аспекты кроме рендеринга не важны

P.S. Я не глор реакта, мне вообще насрать, могу разрабатывать хоть на jQuery. Если я не прав, разнеси этот пост в каментах.
The ExtremeCode Times
Я не пойму, что народ такой суетливый? Только появляется какой-то инструмент, сразу кидаются в него, потому что "через 5 лет его будут юзать все". Ну вот когда будут все юзать, тогда и поучите. А то будете потом с ебучкой лягушки, как у квантово-програмисто…
Так, так, так, чувствую срочную необходимость вставить пару копеек про прошедший хайп о квантовых супер-мега-ёба-компах.

По состоянию на 2к24-ый год, несмотря на появления всяких Q#-ов аж в 2017-ом, эти ЁБА технологии настолько не готовы к реальному применению, что мне даже немножечко жаль всех тех, кто решил вкатиться в изучение этого бесполезного языка. Да, конечно можно попрактиковаться на эмуляторе, но что толку с него — если знания никак невозможно применить на практике.

В чём сейчас главная проблема — ну типа кубиты растут. Вот тут рекорд у IBM — смогли запихнуть аж целых 433 кубита!

Да вот какой толк с них, если тут прямое сравнение с транзисторами в ЦПУ не имеет корреляции. Наращивая число кубитов — производительность не повышается, зато повышается геморрой по сохранению и поддержанию квантового состояния в них. Чем больше кубитов в системе — тем сложнее их изолировать от внешнего взаимодействия. Борьба с внешним воздействием и возникающие в процессе помехи — это главная проблема, которую вообще хз как решить. А то неловко выйдет, если при вычислении 2 + 2 получить 5, не так ли?

Так вот, поэтому производительность квантовой ёба-технологии обычно оценивается не в кубитах, а в квантовом объеме. И тут, у меня для ценителей всего нового и хайпового, не очень хорошие новости. Текущий максимальный квантовый объем равен 2^21, достигается он при использовании 56 кубитов. С другой стороны, есть тот самый мегакомпьютер от IBM — Osprey у которого 433 кубита. Знаешь какой у него объем? Сядь, если не сидишь. 2 в 9 степени, что достигается при использовании 27-и кубитов.

То есть, не смотря на рекорды по установке кубитов, нормально работать могут только от 6 до 56. Прошло уже хрен знает сколько лет в попытках заставить этот футуристичный кал работать. Прогресса никакого нет. Закон Мура для квантовых компьютеров может сразу выходить в окно.

Думайте.
Один чел под постом (который я писал постметаиронично, чтоб повеселиться) выдал следующее:

И зачем интересно знать сами термины ковариантность и инвариантность, если это и так понятно на интуитивном уровне?
Везде эта формальщина и беготня за терминами, бесит


Эта "формальщина" настолько интуитивно понятна, что на вопрос "чё будет в коде ниже?", из 1000000 человек на 300к вакансию мидла ответил только один:
var list = new List<SomeClass>();
List<object> list1 = list;
IEnumerable<object> list2 = list;


Так что, скорее всего, никому эта тема нихрена интуитивно не понятна.
Шизоидный автор на месте. Вообще рофлирую над кокнетчиками, там такие медиаманьки на архитекторах языка, что просто не описать словами.

Пока все как дегенераты носятся и очередной раз постят мемы с джаваскриптом по поводу его динамической типизации, в это же время никто из сишарпистов буквально не замечает бревно в собственном глазу.

Во-первых, тема с ковариантностью-инвариантностью существует как БАЗА, для языков со строгой типизацией. Без нее в принципе НЕВОЗМОЖНО писать это ваше ООП. Не понимать этого — зашквар.

Первая проблема, которая возникает при использовании этих инструментов — невозможно проверить такой код на наличие ошибок во время компиляции, если что-то может отьебнуть, оно обязательно отьебнет в рантайме. Вкусненько, правда?

Во-вторых, по поводу медиаманек на архитекторах, которые противоречат сами себе. Для обобщенных интерфейсов/делегатов сделали типа "безопасный" способ писать такой код. Вот ты впихнул кейворды in/out, значит кровью расписался и даешь себе полный отчет в том, что этот код может отьебнуть в рантайме.

Но при этом, в кокнете из коробки все массивы КОВАРИАНТНЫ, это значит, что ты без проблем можешь написать вот такой код, и компилятор его совершенно спокойно схавает:
object[] array = new string[3] { "ахахаха", "ситуация", "конечно забавная"};
array[0] = 15;


Более того, даже давно известно откуда растут корни такой биполярочки. Все массивы в Java реализованы точно также, поэтому чуваки решили перенести этот механизм один-в-один, чтобы джависты смогли осилить переход с жабы на шарп 👽
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#define FOUR 2+2
int x = FOUR * FOUR;
// Ожидаем 16, получаем 8


int* p = (int*)malloc(sizeof(int));
*p = 42;
free(p);
*p = 100;
// работает... иногда


int i = 5;
int j = i++ + ++i;
printf("%d", j);
// Непредсказуемый результат


#define SQUARE(x) x * x
int a = 3;
int b = SQUARE(a + 1);
// Результат: 7, а не 16


int a;
scanf("%d ", &a);
// Программа "зависает" в ожидании ввода символа
// так как пробел после %d требует ввод лишнего символа


struct SelfCall {
SelfCall() : SelfCall() {}
};
SelfCall sc;
// Бесконечная рекурсия при создании объекта


auto a = true + true + true;
std::cout << a;
// 3


Ахахахах, че не смеетесь? Не смешно? Это C/C++

Давайте, эксперты из каментов, оправдывайтесь. Почему один язык при неопределенном поведении сразу считается "говном", а на другом таком же языке написана операционная система с помощью которой ты в принципе имеешь возможность прочитать этот пост.

Джаваскрипт и сишка, братские языки
true == 1
> true


Ну очевидно же, что при нестрогом сравнении двух разных типов интерпретатор попробует привести один из них к другому типу, чтобы в принципе иметь возможность произвести сравнение

true === 1
> false


Ну очевидно же, что при строгом сравнении невозможно произвести проверку на равенство двух разных типов

9 + "1"
> "91"


Ну очевидно же, что при конкатенации двух типов, выбор интерпретатора будет в сторону строк, как и в принципе в любом другом языке со слабой типизацией. А в некоторых случаях и в языках со строгой типизацией, в случае перегруженных операторов

91 - "1"
> 90


Ну очевидно же, что строки вычитать друг из друга нельзя, поэтому строка будет преобразована в Number

@
@
@

Буквально все каменты под предыдущим постом 👽
Please open Telegram to view this post
VIEW IN TELEGRAM
Ехехех, тут волчары раздобыли и скинули список красных флагов при найме айтишнечков в одну из команд Яндекса. Самый обычный список, хотя местами не обходится без мемов, особенно про опыт у ПХПшников. Но собственно, я и не удивлен. Только не особо понимаю, почему это в принципе может вызвать какой-то отклик в сообществе. Ну типа, волчары сами за что боролись, того и добились.

Я уже не раз освещал тему накрутки опыта, и в постах, и в видосах — это прямой путь к цирковому трюкачеству в найме во всей индустрии, в целом. Более чем уверен, что подобные списки (и даже пожёстче) есть почти у всех HRов. Да и очевидно, что накручивание личного опыта приводит к тому, что в противодействие будут закручиваться гайки в фильтрах при отборе резюме с обратной стороны.

Так что, в этом вопросе я полностью солидарен с Душным Дедом: качайтесь профессионально и меньше запаривайтесь по поводу всяких фильтров. Нормальный чел, с хорошим потенциалом для развития профессиональных навыков, либо с обширным багажом знаний, без работы точно никогда не останется.

Потому что, на самом деле, голодные бигтехи, тебе готовы простить всё что угодно, если ты нормальный гребец. Им нужно бабки зарабатывать и желательно, с максимальной эффективностью.

Поэтому, при различных обстоятельствах, эти самые "красные флаги" - говно на палочке в стеклянной баночке. К тому же у меня, как у самого классного IT блоггера в интернете куча друзьяшек во всех СНГ (и не только) бигтехах. Говорят, что у них в командах такого нет. А сабж из поста просто самодеятельность одного интервьюера-приколиста, который получил за такое по тыкве.

Короче, лучше качайтесь профессионально, чем вот это вот всё, тогда и никакие фильтры на вас работать не будут, АУФ.

P.S.
Нихуя я базу выдал. Поставь класс и репостни своему бате, пусть про айтишку почитает, вдруг замотивируется и тоже решит вкатится. Будете вместе зарабатывать по 500к/наносек.
Ехехех 😄
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Senior Software Vlogger
— А я говорил!

Возможно, настоящая архитектура LLM достигла потолка, о котором предупреждал Ян Лекун. Сам Ян работает над ИИ в Мете и говорил, что наращивание объема данных для тренировки моделей не даст существенного прироста в когнитивных способностях модели.

Деятели индустрии с ним не соглашались. Даже в интервью Лексу Фридману CEO Anthropic, создателей лучшей модели для программирования, сказал, что конечно надо продолжать тренировать на возрастающем объеме данных.

Однако Илья Суцкевер, выходец из OpenAI, недавно подтвердил, что текущая технология вышла на плато и роста ума от роста данных больше не наблюдается.

Что это значит?

Точно не значит смерть ИИ, но возможно значит замедление. Даже если текущая архитектура сетей Трансформер вышла на плато — это не дает гарантии, что нельзя придумать другую архитектуру. Точно так же можно продолжать оптимизировать скорость и эффективность текущей модели, а так же исследовать prompt engineering.

Ждем новостей, а деду — заслуженное дедово «а я говориииил, говнюки».
😔
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/06/19 06:57:07
Back to Top
HTML Embed Code: