Forwarded from Machinelearning
Модель основана на GPT-4o, она может работать с текстовой и визуальной информациией, поддерживает передовые инструменты анализа данных.
ChatGPT Edu включает в себя средства безопасности и контроля корпоративного уровня для образовательных учреждений.
Новая модель дает возможность создавать пользовательские версии ChatGPT, и делиться ими для совместных исследований и обучения.
- Значительно более высокие лимиты на количество сообщений, чем в бесплатной версии ChatGPT
- Улучшены языковые возможности по качеству и скорости работы, поддерживается более 50 языков
- Надежная защита информации,конфиденциальность данных и продвинутые административные средства управления ИИ.
ChatGPT Edu призван заменить репетиторов и предоставляет:
* Обратную связь и поддержку
* Обучение и выставление оценок
* Интеграцию с образовательными ресурсами
openai.com/index/introducing-chatgpt-edu/
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
A+Fourth+Wave+of+Open+Data+Exploring+a+Spectrum+of+Scenarios+fo.pdf
11.1 MB
Проблемы открытых данных и генеративного ИИ
В то время как определённые репозитории, такие как Википедия и база данных патентов Google, сыграли важную роль в продвижении генеративного ИИ, многие открытые государственные и исследовательские наборы данных не соответствуют необходимым стандартам для эффективного использования.
Основные проблемы, с которыми сталкиваются как поставщики открытых данных, так и платформы генеративного ИИ, включают:
Качество и стандартизация данных:
Эффективность генеративного ИИ для задач, таких как дообучение или инференс, зависит от количества, качества и релевантности данных.
Наборы данных, которые не обладают достаточным объёмом, точностью, глубиной или релевантностью, могут приводить к субоптимальной работе ИИ, проявляющейся в виде неточностей, предвзятости или нерелевантных выводов.
Интероперабельность и интеграция:
Открытые данные часто существуют в изолированных хранилищах, каждое из которых имеет уникальные форматы и стандарты, что затрудняет интеграцию различных наборов данных в единый учебный корпус.
Для достижения интероперабельности необходимы согласованные усилия по принятию универсальных стандартов и форматов данных, которые способствуют бесшовному обмену и использованию данных на различных платформах и системах.
Прозрачность и информация о происхождении данных:
Прозрачная информация о происхождении данных необходима для поддержания доверия и подотчётности при использовании открытых данных в архитектурах генерации с привлечением данных (RAG) и для контекстного обучения в инженерии подсказок.
Это включает установление надежных рамок, которые не только отслеживают происхождение данных, но и обеспечивают должное признание вкладчиков, где это применимо. Такие рамки могут поощрить больше владельцев данных делиться своими ресурсами, обогащая таким образом экосистему открытых данных.
#теория_ИИ
В то время как определённые репозитории, такие как Википедия и база данных патентов Google, сыграли важную роль в продвижении генеративного ИИ, многие открытые государственные и исследовательские наборы данных не соответствуют необходимым стандартам для эффективного использования.
Основные проблемы, с которыми сталкиваются как поставщики открытых данных, так и платформы генеративного ИИ, включают:
Качество и стандартизация данных:
Эффективность генеративного ИИ для задач, таких как дообучение или инференс, зависит от количества, качества и релевантности данных.
Наборы данных, которые не обладают достаточным объёмом, точностью, глубиной или релевантностью, могут приводить к субоптимальной работе ИИ, проявляющейся в виде неточностей, предвзятости или нерелевантных выводов.
Интероперабельность и интеграция:
Открытые данные часто существуют в изолированных хранилищах, каждое из которых имеет уникальные форматы и стандарты, что затрудняет интеграцию различных наборов данных в единый учебный корпус.
Для достижения интероперабельности необходимы согласованные усилия по принятию универсальных стандартов и форматов данных, которые способствуют бесшовному обмену и использованию данных на различных платформах и системах.
Прозрачность и информация о происхождении данных:
Прозрачная информация о происхождении данных необходима для поддержания доверия и подотчётности при использовании открытых данных в архитектурах генерации с привлечением данных (RAG) и для контекстного обучения в инженерии подсказок.
Это включает установление надежных рамок, которые не только отслеживают происхождение данных, но и обеспечивают должное признание вкладчиков, где это применимо. Такие рамки могут поощрить больше владельцев данных делиться своими ресурсами, обогащая таким образом экосистему открытых данных.
#теория_ИИ
👾 Эксперимент по аннотированию с использованием ИИ: Сравнение с человеческими аннотациями — пересказ статьи
Как проводился эксперимент по аннотированию?
Для оценки эффективности крупных языковых моделей (LLMs), таких как GPT-3 и GPT-4, в задачах аннотирования данных, был проведен эксперимент. Цель заключалась в том, чтобы сравнить результаты автоматических аннотаций, выполненных моделями, с аннотациями, сделанными людьми.
Выбор задач:
Классификация и генерация текстов: Были выбраны различные задачи, такие как детектирование дезинформации, анализ социального контекста и переосмысление формулировок.
Использование моделей:
Модели LLMs: Были задействованы модели GPT-3.5 и GPT-4, обученные на инструкциях и использующие методы обучения с подкреплением (RLHF) для генерации текстов и классификаций.
Человеческие аннотации:
Аннотаторы: Были наняты профессиональные аннотаторы через платформу Upwork, которые проводили ранжирование и оценку качества результатов, полученных моделями.
Процесс оценки:
Ранжирование и сравнение: Человеческие аннотаторы ранжировали результаты моделей и сравнивали их с собственными аннотациями для определения качества и точности генераций.
🔍В чем люди оказались лучше?
Глубокое понимание контекста: Люди способны лучше учитывать контекст и нюансы текста, что позволяет им делать более точные и релевантные аннотации.
Этичные и социально осознанные аннотации: Человеческие аннотаторы лучше справляются с этическими аспектами и социальными тонкостями, которые могут быть упущены моделями.
Креативность и интуиция: Люди обладают способностью креативного мышления и интуитивного понимания, что помогает им создавать более качественные и оригинальные тексты.
🔍В чем модели оказались лучше?
Скорость и объем обработки: Модели LLMs способны быстро обрабатывать большие объемы данных и генерировать аннотации в кратчайшие сроки, что значительно ускоряет исследовательские процессы.
Однородность аннотаций: Модели обеспечивают высокую консистентность и однородность в аннотациях, что снижает вариативность, часто присутствующую в результатах человеческой работы.
#теория_ИИ
Как проводился эксперимент по аннотированию?
Для оценки эффективности крупных языковых моделей (LLMs), таких как GPT-3 и GPT-4, в задачах аннотирования данных, был проведен эксперимент. Цель заключалась в том, чтобы сравнить результаты автоматических аннотаций, выполненных моделями, с аннотациями, сделанными людьми.
Выбор задач:
Классификация и генерация текстов: Были выбраны различные задачи, такие как детектирование дезинформации, анализ социального контекста и переосмысление формулировок.
Использование моделей:
Модели LLMs: Были задействованы модели GPT-3.5 и GPT-4, обученные на инструкциях и использующие методы обучения с подкреплением (RLHF) для генерации текстов и классификаций.
Человеческие аннотации:
Аннотаторы: Были наняты профессиональные аннотаторы через платформу Upwork, которые проводили ранжирование и оценку качества результатов, полученных моделями.
Процесс оценки:
Ранжирование и сравнение: Человеческие аннотаторы ранжировали результаты моделей и сравнивали их с собственными аннотациями для определения качества и точности генераций.
🔍В чем люди оказались лучше?
Глубокое понимание контекста: Люди способны лучше учитывать контекст и нюансы текста, что позволяет им делать более точные и релевантные аннотации.
Этичные и социально осознанные аннотации: Человеческие аннотаторы лучше справляются с этическими аспектами и социальными тонкостями, которые могут быть упущены моделями.
Креативность и интуиция: Люди обладают способностью креативного мышления и интуитивного понимания, что помогает им создавать более качественные и оригинальные тексты.
🔍В чем модели оказались лучше?
Скорость и объем обработки: Модели LLMs способны быстро обрабатывать большие объемы данных и генерировать аннотации в кратчайшие сроки, что значительно ускоряет исследовательские процессы.
Однородность аннотаций: Модели обеспечивают высокую консистентность и однородность в аннотациях, что снижает вариативность, часто присутствующую в результатах человеческой работы.
#теория_ИИ
Caleb Ziems, William Held, Omar Shaikh, Jiaao Chen, Zhehao Zhang, Diyi Yang; Can Large Language Models Transform Computational Social Science?. Computational Linguistics 2024; 50 (1): 237–291. doi: https://doi.org/10.1162/coli_a_00502
Какие исследовательские процессы вы уже сейчас готовы делегировать ИИ? (выберите все подходящие варианты с учетом степени делегирования)
Anonymous Poll
4%
Кодирование интервью - полностью
29%
Кодирование интервью - частично
30%
Расшифровка интервью - полностью
39%
Расшифровка интервью - частично
5%
Статистическая обработка данных - полностью
44%
Статистическая обработка данных - частично
5%
Составление гайдов и опросников - полностью
29%
Составление гайдов и опросников - частично
21%
Ничего! Все сам(а)
2%
Другое - напишу в комментарии
Forwarded from Bit Bip
Библия промпт-инженера подоспела 🙂
The Prompt Report: A Systematic Survey of Prompting Techniques
https://arxiv.org/abs/2406.06608
The Prompt Report: A Systematic Survey of Prompting Techniques
https://arxiv.org/abs/2406.06608
arXiv.org
The Prompt Report: A Systematic Survey of Prompt Engineering Techniques
Generative Artificial Intelligence (GenAI) systems are increasingly being deployed across diverse industries and research domains. Developers and end-users interact with these systems through the...
Конкретные задачи студента-социолога и конкретные попытки их решить. Решение не всегда удачно и вообще возможно.
Задачей семинара для Университета без профессоров было показать, что чат-боты с ИИ внутри — не панацея, но и не монстры.
Ну и соблазнить абитуриентов идти учиться в Европейский университет. Особенно на направление STS.
Задачей семинара для Университета без профессоров было показать, что чат-боты с ИИ внутри — не панацея, но и не монстры.
Ну и соблазнить абитуриентов идти учиться в Европейский университет. Особенно на направление STS.
Google Docs
семинар_ЕУ_УБП
Генеративный ИИ в социальных исследованиях: от идеи к статье Елена Каганова, магистратура STS, 2 курс https://www.tgoop.com/selfmadeLibrary Скачать семинар и промты в виде текста туть Часть 1: Введение в генеративный ИИ (теория на 10 минут) Что такое генеративный…
По просьбе нетрудящего публикую опрос про чтение
Если вы читаете нехудожественные тексты (книги, статьи и т. д.), пройдите, пожалуйста, пятиминутный анонимный опрос о своём опыте чтения:
https://forms.gle/Zv2fkscLRWFHGFgr6
Мы делаем открытый онлайн-курс по аналитическому чтению, который планируем запустить осенью 2024-го года. Мы — студенты, которые стремятся научиться эффективному чтению нехудожественных текстов и извлекать из них больше пользы. Работая над развитием своих навыков в книжных клубах, мы решили создать курс, который поможет и вам.
Мы просим вас пройти короткий опрос, который поможет нам лучше понять ваш опыт чтения и методы работы с текстами. Это позволит нам сделать курс более полезным и адаптированным к разным потребностям.
Опрос анонимный и займёт у вас не более 5 минут.
Если вы читаете нехудожественные тексты (книги, статьи и т. д.), пройдите, пожалуйста, пятиминутный анонимный опрос о своём опыте чтения:
https://forms.gle/Zv2fkscLRWFHGFgr6
Мы делаем открытый онлайн-курс по аналитическому чтению, который планируем запустить осенью 2024-го года. Мы — студенты, которые стремятся научиться эффективному чтению нехудожественных текстов и извлекать из них больше пользы. Работая над развитием своих навыков в книжных клубах, мы решили создать курс, который поможет и вам.
Мы просим вас пройти короткий опрос, который поможет нам лучше понять ваш опыт чтения и методы работы с текстами. Это позволит нам сделать курс более полезным и адаптированным к разным потребностям.
Опрос анонимный и займёт у вас не более 5 минут.
Google Docs
Опрос по опыту чтения
Привет!
Мы делаем открытый онлайн-курс по аналитическому чтению, который планируем запустить осенью 2024-го года.
Мы — студенты, которые стремятся научиться эффективному чтению нехудожественных текстов и извлекать из них больше пользы. Работая над развитием…
Мы делаем открытый онлайн-курс по аналитическому чтению, который планируем запустить осенью 2024-го года.
Мы — студенты, которые стремятся научиться эффективному чтению нехудожественных текстов и извлекать из них больше пользы. Работая над развитием…
Когда вы в последний раз дочитали книгу? Вам нужен ИИ-компаньон для чтения
Эта статья WIRED о Rebind - новом приложении, которое использует искусственный интеллект, чтобы сделать чтение классических книг более доступным и интересным.
Rebind подключает к читателям "Ghostbinder" - эксперта по выбранной книге, с которым можно взаимодействовать в чате. AI-Ghostbinder будет комментировать текст, отвечать на вопросы и вести диалог с читателем.
Создатель Rebind, Джон Дюбюк: бывший предприниматель, который заработал состояние, продал свою компанию. После этого он решил вернуться к своей любви - философии, но столкнулся с тем, что не мог прочитать сложные книги. Он нанял профессора из Оксфорда для персональных уроков и почувствовал, что такое же желание испытывают многие люди. Дюбюк увидел в ChatGPT возможность, которая может помочь людям читать классику, и решил создать Rebind.
Как работает Rebind: Приложение использует большие языковые модели (LLMs) для создания "chattable" комментариев, которые звучат как живой разговор. Rebind работает с несколькими моделями, включая GPT-4o от OpenAI. Приложение создано для активного взаимодействия с пользователем, а не для пассивного чтения. Rebind - это не просто "Спроси меня о чем угодно", а платформа, которая помогает пользователям глубже погрузиться в текст.
Автор статьи попробовал Rebind с The Great Gatsby. Он спросил AI-Ghostbinder, был ли Гэтсби просто богатым придурком. AI-Ghostbinder ответил, что Гэтсби - сложный персонаж, не стоит его упрощать.
Проблемы: Некоторые люди, как журналистка Лена Данхэм, нашли AI-Ghostbinder слишком нейтральным и недостаточно личным. Однако, автору статьи нравится идея Rebind и он с нетерпением ждет, когда сможет использовать приложение для чтения "Ромео и Джульетты".
#ИИ_для_чтения
Эта статья WIRED о Rebind - новом приложении, которое использует искусственный интеллект, чтобы сделать чтение классических книг более доступным и интересным.
Rebind подключает к читателям "Ghostbinder" - эксперта по выбранной книге, с которым можно взаимодействовать в чате. AI-Ghostbinder будет комментировать текст, отвечать на вопросы и вести диалог с читателем.
Создатель Rebind, Джон Дюбюк: бывший предприниматель, который заработал состояние, продал свою компанию. После этого он решил вернуться к своей любви - философии, но столкнулся с тем, что не мог прочитать сложные книги. Он нанял профессора из Оксфорда для персональных уроков и почувствовал, что такое же желание испытывают многие люди. Дюбюк увидел в ChatGPT возможность, которая может помочь людям читать классику, и решил создать Rebind.
Как работает Rebind: Приложение использует большие языковые модели (LLMs) для создания "chattable" комментариев, которые звучат как живой разговор. Rebind работает с несколькими моделями, включая GPT-4o от OpenAI. Приложение создано для активного взаимодействия с пользователем, а не для пассивного чтения. Rebind - это не просто "Спроси меня о чем угодно", а платформа, которая помогает пользователям глубже погрузиться в текст.
Автор статьи попробовал Rebind с The Great Gatsby. Он спросил AI-Ghostbinder, был ли Гэтсби просто богатым придурком. AI-Ghostbinder ответил, что Гэтсби - сложный персонаж, не стоит его упрощать.
Проблемы: Некоторые люди, как журналистка Лена Данхэм, нашли AI-Ghostbinder слишком нейтральным и недостаточно личным. Однако, автору статьи нравится идея Rebind и он с нетерпением ждет, когда сможет использовать приложение для чтения "Ромео и Джульетты".
#ИИ_для_чтения
WIRED
When Was the Last Time You Finished a Book? You Need an AI Reading Companion Like Me
Margaret Atwood, Marlon James, Lena Dunham, Garth Greenwell, Roxane Gay: We’ve all agreed to be turned into chatbots by a mysterious startup called Rebind. I report from the inside.
Я считаю, всех с пелёнок надо учить библиографии и промт-инжинирингу.
Forwarded from Кофейный теоретик
Какие из этих предметов обязательно должны быть в школе?
Anonymous Poll
61%
ОБЖ (про травмы, ПДД, оплату коммуналки и проч)
67%
Финансовая грамотность
73%
Литература (отечественная и международная)
83%
Русский язык
91%
Математика
73%
История (отечественная и международная)
47%
Художественные предметы (музыка, изо, etc)
85%
Естественные науки (физика, химия, etc)
7%
Патриотическое и религиозное воспитание
85%
Иностранные язык/языки
Forwarded from Кофейный теоретик
Какие ещё предметы обязательно нужны в школе?
Anonymous Poll
66%
Социальные науки (обществознание и прочь.)
59%
Физкультура
43%
Профориентация
49%
Начала юриспруденции
45%
Труд (работа руками)
32%
Астрономия
18%
Черчение
9%
Разговоры о важном :-)
Новый подход позволяет определить, когда чатботы что-то выдумывают
Искусственный интеллект (ИИ) становится всё более мощным инструментом, способным решать сложные задачи, от написания текстов до генерации музыки. Однако, как и у людей, у ИИ есть свои "слабости". Одна из них - "галлюцинации", когда ИИ выдает за правду выдуманные факты.
Почему так происходит? Большие языковые модели (LLM), лежащие в основе современных ИИ-систем, обучены не "знать" правду, а генерировать правдоподобные тексты. Они анализируют огромные массивы данных, выявляя взаимосвязи между словами и фразами, но не проверяют их на истинность.
Чтобы избежать подобных ошибок, исследователи ИИ ищут способы отличить "правду" от "выдумки" в ответах LLM. Один из перспективных методов, описанный в статье в журнале Nature, основан на измерении "семантической энтропии" - насколько случайны ответы ИИ на один и тот же вопрос.
Если ответы ИИ сильно отличаются по смыслу, значит, он, скорее всего, "бредит", выдумывая информацию. В случае, если ответы схожи по смыслу, можно говорить о том, что ИИ "говорит правду".
Этот подход можно сравнить с методом "хороший полицейский, плохой полицейский". Если человек упорно придерживается одной версии событий, значит, он, вероятно, говорит правду.
Однако, исследователи подчеркивают, что данный метод не решает все проблемы с "галлюцинациями" ИИ. Он может не распознать ситуации, когда ИИ упорно держится за выдуманный факт, повторяя его снова и снова.
Искусственный интеллект (ИИ) становится всё более мощным инструментом, способным решать сложные задачи, от написания текстов до генерации музыки. Однако, как и у людей, у ИИ есть свои "слабости". Одна из них - "галлюцинации", когда ИИ выдает за правду выдуманные факты.
Почему так происходит? Большие языковые модели (LLM), лежащие в основе современных ИИ-систем, обучены не "знать" правду, а генерировать правдоподобные тексты. Они анализируют огромные массивы данных, выявляя взаимосвязи между словами и фразами, но не проверяют их на истинность.
Чтобы избежать подобных ошибок, исследователи ИИ ищут способы отличить "правду" от "выдумки" в ответах LLM. Один из перспективных методов, описанный в статье в журнале Nature, основан на измерении "семантической энтропии" - насколько случайны ответы ИИ на один и тот же вопрос.
Если ответы ИИ сильно отличаются по смыслу, значит, он, скорее всего, "бредит", выдумывая информацию. В случае, если ответы схожи по смыслу, можно говорить о том, что ИИ "говорит правду".
Этот подход можно сравнить с методом "хороший полицейский, плохой полицейский". Если человек упорно придерживается одной версии событий, значит, он, вероятно, говорит правду.
Однако, исследователи подчеркивают, что данный метод не решает все проблемы с "галлюцинациями" ИИ. Он может не распознать ситуации, когда ИИ упорно держится за выдуманный факт, повторяя его снова и снова.
Science
Is your AI hallucinating? New approach can tell when chatbots make things up
Second AI that acts as “truth cop” could provide the reliability models need for rollout in health care, education, and other fields
ИИ в библиотеке — проще, чем кажется!
Недавнее исследование, опубликованное в журнале "Evidence Based Library and Information Practice", доказывает: создать чат-бота на основе ИИ для библиотеки – задача выполнимая даже с минимальными техническими знаниями и ограниченными ресурсами.
В статье рассказывается о проекте библиотеки Университета Сан-Хосе, где библиотекарь и два студента-стажера разработали собственного чат-бота. Используя платформу Dialogflow и готовые виджеты, они "обучили" бота отвечать на базовые вопросы пользователей, находить нужные книги и статьи, сообщать о часах работы библиотеки и многое другое.
✂️Разработчикам не потребовались глубокие знания программирования или дорогие инструменты.
🎯Этот пример демонстрирует, что внедрение ИИ становится реальностью даже для небольших организаций с ограниченными бюджетами.
Конечно, проект выявил и некоторые сложности, например, низкая вовлеченность пользователей после первоначального приветствия. Это подчеркивает важность дальнейших исследований в области юзабилити и восприятия чат-ботов пользователями.
Недавнее исследование, опубликованное в журнале "Evidence Based Library and Information Practice", доказывает: создать чат-бота на основе ИИ для библиотеки – задача выполнимая даже с минимальными техническими знаниями и ограниченными ресурсами.
В статье рассказывается о проекте библиотеки Университета Сан-Хосе, где библиотекарь и два студента-стажера разработали собственного чат-бота. Используя платформу Dialogflow и готовые виджеты, они "обучили" бота отвечать на базовые вопросы пользователей, находить нужные книги и статьи, сообщать о часах работы библиотеки и многое другое.
✂️Разработчикам не потребовались глубокие знания программирования или дорогие инструменты.
🎯Этот пример демонстрирует, что внедрение ИИ становится реальностью даже для небольших организаций с ограниченными бюджетами.
Конечно, проект выявил и некоторые сложности, например, низкая вовлеченность пользователей после первоначального приветствия. Это подчеркивает важность дальнейших исследований в области юзабилити и восприятия чат-ботов пользователями.
www.semanticscholar.org
Academic Libraries Can Develop AI Chatbots for Virtual Reference Services with Minimal Technical Knowledge and Limited Resources…
The authors identified the most common reasons for users to engage the chatbot, using the chatbot’s triggered intents from user inquiries, and found libraries can successfully develop and train AI chatbots with minimal technical expertise and resources. A…