Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
1110 - Telegram Web
Telegram Web
This media is not supported in your browser
VIEW IN TELEGRAM
Эндрю Нг запускает курс по vibe-coding

Легенда ИИ — профессор Стэнфорда, сооснователь Coursera и DeepLearning.AI, бывший глава Google Brain и CSO в Baidu — Эндрю Нг — анонсировал курс "Vibe Coding 101 with Replit".

Курс про то, как давать задания ИИ, а не писать всё вручную — ты придумываешь, что должно быть, а он сам пишет код.

Идею вайб-кодинга популяризировал Андрей Карпаты (экс-OpenAI), и вот теперь у нас — официальный туториал по вайбу.

При этом есть и обратная сторона:

- Пол Грэм уже намекает, что vibe coding = техдолг, если переборщить с вайбом и забыть про архитектуру.
- А вот Мэттью Берман считает, что это революция: к ПО смогут прикасаться миллионы тех, кто раньше даже IDE не открывал.

Эндрю Нг продолжает толкать ИИ в массы: его курсы уже прошли 8+ млн человек, и теперь он учит не просто "учиться кодить", а думать как инженер, а не как наборщик текста. И на фоне того, что число вакансий для разработчиков в США за 5 лет упало на треть (по данным Indeed), всё это выглядит не как модная фишка, а как новая реальность:

Так что теперь всё официально: кодим на вайбе, в продакшн и занимаемся маркетингом!

ИИволюция
У меня для вас 3 новости про новый генератор изображений gpt-4o:

- У OpenAI “плавятся” GPU от наших с вами запросов и они ввели ограничение на количество запросов (пока не понятно какие, но думаю сильно меньше 100 в сутки).

- Генератор перестал создавать изображения на разные темы и пишет, что это нарушает правила. Видимо это тоже часть тушения пожара из-за хайпа. Началось еще вчера с утра, Сэм пишет, что они занимаются фиксом (вероятно, им уже прилетело по шапке за дипфейки и прочее, поэтому цензурируют запросы). Кайфы нам пообломали!

- На бесплатном тарифе обещают завести 3 генерации в сутки, скоро. Ждите!

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
Вайб-кодинг это конечно клево, но я вчера подключил MCP-сервер к Ableton и нормально по вайб-музицировал – без понятия что все эти кнопки означают, просто говоришь приложению Claude что сделать, и он делает, партию за партией, само играть начинает и тп, то есть можно правда DJ сессии с этой штукой устраивать


Будущее прекрасно 🥳
Please open Telegram to view this post
VIEW IN TELEGRAM
Однако!

Только утром писал, что новое обновление gpt-4o (2025-03-26) заняло c пинка 2-е место на Арене, как спустя несколько часов, она уже обогнала Gemini 2.5 Pro и заняла сокрушительно 1-е место.

Чудеса какие-то!

ИИволюция
AI все еще плохо работает с новостями

Рубрика «Медиа еще поживут». Исследователи Центра цифровой журналистики при Колумбийском университете протестировали восемь AI-поисковиков, чтобы оценить их способность точно цитировать новостной контент. Оказалось, что чат-боты по-пержнему часто предоставляют неверные или спекулятивные ответы, вместо того чтобы признать невозможность дать точный ответ.

Премиум-версии чат-ботов давали более уверенные, но ошибочные ответы по сравнению с бесплатными аналогами. Некоторые чат-боты игнорировали запрет сканирования robots.txt (сюрприз!), создавали фиктивные ссылки и цитировали рерайт или скопированные статьи вместо первоисточника. Даже наличие лицензионных соглашений с новостными источниками не гарантировало точного цитирования в ответах.

В целом, чат-боты часто не справлялись с поиском корректных статей, предоставляя неверные ответы более чем в 60% случаев. Например, Perplexity дал неверные ответы в 37% случаев, а Grok 3 ошибался в 94% случаев. Большинство протестированных инструментов уверенно предоставляли неточные ответы, редко используя оговорки или признавая пробелы в знаниях. Прям как многие люди, которых я знаю.

В копилку очень хорошо ложится еще одна курьезная новость начала марта. Газета Los Angeles Times запустила бота-суммаризатора новостей, который позволял посмотреть на них с разных точек зрения, и тут же огребла от читателей публичной критики — в статье про историю Куклукс-клана в Лос-Анджелесе бот указал, что там все, гм, не так однозначно.


Пономарь
Please open Telegram to view this post
VIEW IN TELEGRAM
Комикс для сомневающихся 😀

ИИволюция
Отбой, до AGI еще далеко!

Тест с часами провален 😢

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
В обновлениях веб приложения ChatGPT обнаружили слайдер для переключения работы моделей:

- Появится режим “Авто”, чтобы чатик сам определял по вашему запросу какую модель использовать.

- Можно будет управлять временем размышления модели в зависимости от задачи.

- Либо выбирать модель вручную как и сейчас.

Побыстрее бы уже разгребли этот зоопарк с моделями в OpenAI.

ИИволюция
Сэм Альтман уже почти умоляет: хватит генерировать изображения в GPT-4o в таком количестве!

Команда OpenAI не успевает спать и поддерживать систему.

Слабак! Илон Маск бы сказал: «Нужно поднажать, генерируйте больше картинок и мемасиков! Пока сервера не сгорели – полный безлимит»

Кажется, что слова Сэма еще больше подстегивают сгенерировать что-нибудь one more time. Или на это и расчёт?

ИИволюция
Forwarded from Data Secrets
Всплыли некоторые подробности увольнения Сэма Альтмана осенью 2023 года

The Wall Street Journal выпустил статью-отрывок из будущей книги “The Optimist: Sam Altman, OpenAI, and the Race to Invent the Future”, в которой раскрыли некоторые подробности событий ноября 2023.

Оказалось, что Сэм несколько раз лгал и недоговаривал совету директоров:

Однажды при обсуждении новой модели GPT-4 он солгал, что она прошла проверку безопасности. После перепроверки оказалось, что это не так.

Тестирование GPT-4 на пользователях также началось без ведома директоров.

В другой раз он сказал Мире Мурати, что юридический отдел подтвердил, что GPT-4 Turbo не нужно пропускать через тест безопасности в Microsoft. В последствие главный юрист компании отрицал это.

Ну и вишенка: хотя Альтман не владел никакими акциями OpenAI (помните вот это "I do It because I love It"?), оказалось, что ему тайно принадлежал инвестиционный фонд OpenAI Startup Fund. Сэм утверждал, что прибыли тот не несет, но все равно зачем-то скрывал факт владения от совета.

А еще выяснилось, что помимо Ильи Суцкевера, руку к увольнению Альтмана непосредственно приложила Мира Мурати. Они с Ильей вместе собирали документальные доказательства лжи и токсичности Альтмана и Грега Брокмана. На том же совете, на котором решили уволить Сэма, Миру назначили новым временным CEO.

Это забавно, потому что именно Мира сразу после увольнения Альтмана сделала вид, что она не в курсе "заговора" и возглавила протест сотрудников против увольнения Сэма. Она вместе с 95% сотрудников (и Суцкевером в том числе) подписала петицию с угрозой массового увольнения. Именно поэтому Альтмана восстановили.

Вот такая вот кремниевая игра престолов 👀

P.S. Сама статья WSJ платная, но бесплатное зеркало есть тут, так что можете легко прочитать полностью
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Ai molodca (Dobrokotov)
Приколы с новой генеративной моделью от OpenAI — это, конечно, весело. Но что насчёт рабочих задач, например, в маркетинге и дизайне?

В рекламном деле мы постоянно рисовали "огурцы" — грубые скетчи для раскадровок или кей-вижуалов, по которым макет потом воплощал дизайнер или иллюстратор.

А теперь смотрим на приложенные картинки. Я не просто так говорю, что это — геймченджер.
2025/06/28 19:04:05
Back to Top
HTML Embed Code: