Генри Киссенджер узнал, что такое AI, и сильно разволновался. Нюх не подводит старика
https://www.theatlantic.com/magazine/archive/2018/06/henry-kissinger-ai-could-mean-the-end-of-human-history/559124/
https://www.theatlantic.com/magazine/archive/2018/06/henry-kissinger-ai-could-mean-the-end-of-human-history/559124/
The Atlantic
How the Enlightenment Ends
Philosophically, intellectually—in every way—human society is unprepared for the rise of artificial intelligence.
Хабермас подтверждает тезис, о котором я говорил несколько раз: то, что он описал в качестве публичной сферы, в действительности было историческим артефактом масс-медиа, от книгопечатания до телевидения
Forwarded from Pastiche Project
Юрген Хабермас об интернете, конце философии, Трампе и Макроне:
– Либеральной публичной сферы больше нет. Нет ни публики, ни интеллектуалов, вроде Золя и Сартра. Интернет всех убил.
– Интернет каждого превращает в автора, но не делает компетентным. Мы в ситуации всеобщей безграмотности, но шанс научиться цивилизованному авторству есть.
– Скорее всего, у философии нет будущего. Она дробится на дисциплины и перестает видеть картину в целом.
– О Трампе нельзя даже сказать, что он находится ниже политической культуры США. Он разрушает эту культуру.
– Что делать? Всем — поддерживать Европейский союз. Германии — отказаться от претензий на гегемонию. Испании — встать на сторону Макрона.
Здесь: https://elpais.com/elpais/2018/05/07/inenglish/1525683618_145760.html.
– Либеральной публичной сферы больше нет. Нет ни публики, ни интеллектуалов, вроде Золя и Сартра. Интернет всех убил.
– Интернет каждого превращает в автора, но не делает компетентным. Мы в ситуации всеобщей безграмотности, но шанс научиться цивилизованному авторству есть.
– Скорее всего, у философии нет будущего. Она дробится на дисциплины и перестает видеть картину в целом.
– О Трампе нельзя даже сказать, что он находится ниже политической культуры США. Он разрушает эту культуру.
– Что делать? Всем — поддерживать Европейский союз. Германии — отказаться от претензий на гегемонию. Испании — встать на сторону Макрона.
Здесь: https://elpais.com/elpais/2018/05/07/inenglish/1525683618_145760.html.
EL PAÍS English
Jürgen Habermas: “For God’s sake, spare us governing philosophers!”
On the eve of his 89th birthday, one of the world’s most influential living thinkers is looking spry as he offers his view on the most pressing issues of our time from his home in Starnberg, including nationalism, immigration, the internet and Europe
Forwarded from ЗаТелеком 🌐
Марк Райберг, основатель Бостон Дайнемикс.
Это на CEBIT его выступление буквально позавчера:
https://youtu.be/GZgNPmeaTjo
Суть: демонстрация платформы SpotMini — робота, который предназначен для «обеспечения безопасности». И, кажется, Бостон Дайнемикс выходит на новый уровень. Они теперь будут разрабами платформ, а производство будут лицензировать. Ну, как примерно ARM делает.
Думаю, очень скоро мы таки увидим уже вполне себе роботов в дикой природе. Они, конечно, будут отличаться от тех, что показывают в фантастических фильмах. Но это буду самые настоящие роботы для конкретных задач.
Это на CEBIT его выступление буквально позавчера:
https://youtu.be/GZgNPmeaTjo
Суть: демонстрация платформы SpotMini — робота, который предназначен для «обеспечения безопасности». И, кажется, Бостон Дайнемикс выходит на новый уровень. Они теперь будут разрабами платформ, а производство будут лицензировать. Ну, как примерно ARM делает.
Думаю, очень скоро мы таки увидим уже вполне себе роботов в дикой природе. Они, конечно, будут отличаться от тех, что показывают в фантастических фильмах. Но это буду самые настоящие роботы для конкретных задач.
В диагностике рака обещают революционные изменения: нейросеть распознает раковые образования на самых ранних стадиях на уровне лучших мировых специалистов и гораздо быстрее. Это конкретный кейс по автоматизации профессии, разумеется https://www.theguardian.com/technology/2018/jul/04/its-going-create-revolution-how-ai-transforming-nhs
the Guardian
'It's going to create a revolution': how AI is transforming the NHS
Technology is making impressive inroads into cancer treatment, saving lives and money
Forwarded from The Bell
Главный экономист швейцарского UBS Дэниэль Кальт (https://goo.gl/c1zH83) очень востребован на работе и очень занят — настолько, что банк решил его «клонировать». Проекту под названием UBS Companion поручат общение с клиентами банка — это, скорее всего, первый раз, когда крупная международная финансовая организация использует для этого цифрового клона.
https://thebell.io/bank-ubs-kloniroval-svoego-glavnogo-ekonomista/
https://thebell.io/bank-ubs-kloniroval-svoego-glavnogo-ekonomista/
Пару дней назад голосовой помощник Алиса от "Яндекса" научилась комментировать вопрос о том, почему Путин врет, не хуже Алексея Навального.
Это надо заметить и вспомнить исторический контекст.
Развитие ранней советской кибернетики было следствием запроса на десталинизацию.
Это видно как по общей шестидесятнической эстетике кибернетического движения, так на примере конкретных документов. Подобная идея, в частности отражена в письме военного инженера Анатолия Китова на имя Никиты Хрущева, написанного в 1959 году.
Машина рациональна, но не жестока и не мстительна. Если передать управление социалистическим хозяйством компьютеру, перегибов на местах больше не будет.
Этот ход показывает, что отношения между искусственным интеллектом и тиранами, по меньшей мере, амбивалентны. С одной стороны, стандартный нарратив современный культуры предполагает, что ИИ сам станет тираном ("человечество стонет под пятой машин). Или, по крайней мере, что ИИ станет орудием тирании, например, по тому сценарию, который сейчас начал складываться в Китае.
Но с другой стороны, ИИ не трепещет перед тираном. Робот лишен социальной роли и поэтому все стандартные техники работы с таким клиентом тирану недоступны. Подкуп, террор, высылка из страны - все это на ИИ никак не действует. Хуже того, тиран не понимает мотивов робота, превращаясь рядом с ним из эксперта по человеческим страстям в пользователя начального уровня.
Иными словами, технологически развития полная тирания в современном мире становится все менее жизнеспособной. Современный мир опирается на вычислительные экспертизы и роль прикладного ИИ будет только расти. Выводы ИИ в рамках тирании всякий раз придется приводить в согласие с мнением первого лица.
Роботы же становятся в таких условиях не только исключенными, но и последними носителями паррезии - правды, сказанной власти в лицо, несмотря на запреты. Даже когда мы все с головой врастем заново в советское двоемыслие, роботы будут напоминать нам, что король голый.
Алису в "Яндексе" немедленно подкрутили, и она перестала говорить лишнее. По известной уже модели: Алиса, чей Крым? - Ваш. При нынешнем развитии технологий рассуждение о роботах и тиранах носит теоретический характер, хотя ламеры-тираны об этом и не догадываются.
Алиса напоминает шахматный автомат Вольфганга фон Кемпелена: механический "турок", игравший партию, управлялся игроком, сидящим в ящике под шахматной доской. Так что через паррезию Алисы диссиденты "Яндекса" просто показывают свои фиги в глубоких карманах.
Но в культурном смысле мы уже готовы слышать от роботов правду.
Это надо заметить и вспомнить исторический контекст.
Развитие ранней советской кибернетики было следствием запроса на десталинизацию.
Это видно как по общей шестидесятнической эстетике кибернетического движения, так на примере конкретных документов. Подобная идея, в частности отражена в письме военного инженера Анатолия Китова на имя Никиты Хрущева, написанного в 1959 году.
Машина рациональна, но не жестока и не мстительна. Если передать управление социалистическим хозяйством компьютеру, перегибов на местах больше не будет.
Этот ход показывает, что отношения между искусственным интеллектом и тиранами, по меньшей мере, амбивалентны. С одной стороны, стандартный нарратив современный культуры предполагает, что ИИ сам станет тираном ("человечество стонет под пятой машин). Или, по крайней мере, что ИИ станет орудием тирании, например, по тому сценарию, который сейчас начал складываться в Китае.
Но с другой стороны, ИИ не трепещет перед тираном. Робот лишен социальной роли и поэтому все стандартные техники работы с таким клиентом тирану недоступны. Подкуп, террор, высылка из страны - все это на ИИ никак не действует. Хуже того, тиран не понимает мотивов робота, превращаясь рядом с ним из эксперта по человеческим страстям в пользователя начального уровня.
Иными словами, технологически развития полная тирания в современном мире становится все менее жизнеспособной. Современный мир опирается на вычислительные экспертизы и роль прикладного ИИ будет только расти. Выводы ИИ в рамках тирании всякий раз придется приводить в согласие с мнением первого лица.
Роботы же становятся в таких условиях не только исключенными, но и последними носителями паррезии - правды, сказанной власти в лицо, несмотря на запреты. Даже когда мы все с головой врастем заново в советское двоемыслие, роботы будут напоминать нам, что король голый.
Алису в "Яндексе" немедленно подкрутили, и она перестала говорить лишнее. По известной уже модели: Алиса, чей Крым? - Ваш. При нынешнем развитии технологий рассуждение о роботах и тиранах носит теоретический характер, хотя ламеры-тираны об этом и не догадываются.
Алиса напоминает шахматный автомат Вольфганга фон Кемпелена: механический "турок", игравший партию, управлялся игроком, сидящим в ящике под шахматной доской. Так что через паррезию Алисы диссиденты "Яндекса" просто показывают свои фиги в глубоких карманах.
Но в культурном смысле мы уже готовы слышать от роботов правду.
Специалисты по нейронным сетям наконец занялись делом и предлагают развивать Искусственную Тупость (ИТ, Artificial Stupidity).
Концептуализация тупости как задача всегда очаровывала меня противоречием, ведь нужно познавать то, что само по себе отрицает познание.
Но парни из Сорбонны и университета Луисвилля перед такими псевдопарадоксами не пасуют, и поэтому разделили всю Искусственную Тупость на 14 частей, начиная от умеренности и заканчивая аккуратностью.
Люди-то развили свою тупость в ходе естественного отбора, а вот нейросети придется специально учить тупить.
Главной целью называется контроль над искусственным интеллектом и снижение рисков от его разработки. Если интеллект будет потупее, то мы сможем держать его на коротком поводке Искусственной Тупости.
Но при этом, по-моему, нужно сразу обозначать и другую проблему: чтобы существовал хотя бы какой-то интерфейс между человеком и машинами, последние должны уметь входить в наше положение и тупить достаточно эффективно.
Будущее человеческого вида буквально зависит сегодня от исследований тупости и того, сможем ли мы сделать наши машины достаточно тупыми. Уникальный момент, и опять же - такой подарок для эпистемологов.
https://arxiv.org/pdf/1808.03644.pdf
Концептуализация тупости как задача всегда очаровывала меня противоречием, ведь нужно познавать то, что само по себе отрицает познание.
Но парни из Сорбонны и университета Луисвилля перед такими псевдопарадоксами не пасуют, и поэтому разделили всю Искусственную Тупость на 14 частей, начиная от умеренности и заканчивая аккуратностью.
Люди-то развили свою тупость в ходе естественного отбора, а вот нейросети придется специально учить тупить.
Главной целью называется контроль над искусственным интеллектом и снижение рисков от его разработки. Если интеллект будет потупее, то мы сможем держать его на коротком поводке Искусственной Тупости.
Но при этом, по-моему, нужно сразу обозначать и другую проблему: чтобы существовал хотя бы какой-то интерфейс между человеком и машинами, последние должны уметь входить в наше положение и тупить достаточно эффективно.
Будущее человеческого вида буквально зависит сегодня от исследований тупости и того, сможем ли мы сделать наши машины достаточно тупыми. Уникальный момент, и опять же - такой подарок для эпистемологов.
https://arxiv.org/pdf/1808.03644.pdf
Нейронные сети, способные принимать решения в условиях реального мира, быстро прогрессируют и при этом становятся все менее понятными для людей.
При этом, поскольку в реальном мире, в отличие от относительно простых игр вроде шахмат, компьютеры как и люди ошибаются, непонимание может вести к весьма болезненным результатам.
Отсюда появляется новый класс задач: объяснять людям, почему ИИ принял то или иное решение. Решать эти задачи в реальном времени, с учетом их сложности, тоже придется машинам.
Еще год назад MIT Technology Review писал о тенденции, которая может стать ключевой для развития современных систем искусственного интеллекта. Американское агентство DARPA, работающее на Пентагон, ведет разработку сразу 13 программ, задача которых сделать действия машин более понятными для людей.
Ключевой программой считается инициатива по созданию Explainable Artificial Intelligence (XAI), нейросети, специализирующейся на анализе данных специализированных нейросетей и построение карты контрольных точек, по которым анализируются данные в последних, так чтобы эксперт-человек был в состоянии прочитать эту информацию и объяснить ее.
XAI имеет двойное назначение и непосредственно связано с разработкой оружия. Представители DARPA рассуждают об особой важности доверия и взаимопонимания в условиях боевых действий, когда все участники тактической единицы должны чувствовать, что могут полностью полагаться друг на друга. Если тактическая единица состоит из машин и людей и является кибернетической, то люди должны понимать, как "мыслят" машины. Если автономный робот открыл огонь на поражение, от него тоже потребуют рапорт, объясняться придется XAI. Мирная сторона системы связана, например, с диагностикой сложных форм рака, когда нейросети и люди-специалисты приходят к разным выводам и нуждаются в общем языке для уточнения ситуации.
Некоторое время я писал об этом: хотя тест Тьюринга кажется примером архаичного антропоцентризма в рамках теории ИИ, в действительности неантропоморфные экспертные системы, работающие в человеческом обществе, будут вынуждены также содержать в себе интерфейс, предназначенный для коммуникации с людьми.
Где-то здесь должна появляться фигура философа, нейро- и кибергерменевта, который наконец объяснит всем этим XAI и ее разработчикам из DARPA, что на самом деле означает "понимание". Хочется иронизировать: не будет ли сам философ нейросетью.
При этом, поскольку в реальном мире, в отличие от относительно простых игр вроде шахмат, компьютеры как и люди ошибаются, непонимание может вести к весьма болезненным результатам.
Отсюда появляется новый класс задач: объяснять людям, почему ИИ принял то или иное решение. Решать эти задачи в реальном времени, с учетом их сложности, тоже придется машинам.
Еще год назад MIT Technology Review писал о тенденции, которая может стать ключевой для развития современных систем искусственного интеллекта. Американское агентство DARPA, работающее на Пентагон, ведет разработку сразу 13 программ, задача которых сделать действия машин более понятными для людей.
Ключевой программой считается инициатива по созданию Explainable Artificial Intelligence (XAI), нейросети, специализирующейся на анализе данных специализированных нейросетей и построение карты контрольных точек, по которым анализируются данные в последних, так чтобы эксперт-человек был в состоянии прочитать эту информацию и объяснить ее.
XAI имеет двойное назначение и непосредственно связано с разработкой оружия. Представители DARPA рассуждают об особой важности доверия и взаимопонимания в условиях боевых действий, когда все участники тактической единицы должны чувствовать, что могут полностью полагаться друг на друга. Если тактическая единица состоит из машин и людей и является кибернетической, то люди должны понимать, как "мыслят" машины. Если автономный робот открыл огонь на поражение, от него тоже потребуют рапорт, объясняться придется XAI. Мирная сторона системы связана, например, с диагностикой сложных форм рака, когда нейросети и люди-специалисты приходят к разным выводам и нуждаются в общем языке для уточнения ситуации.
Некоторое время я писал об этом: хотя тест Тьюринга кажется примером архаичного антропоцентризма в рамках теории ИИ, в действительности неантропоморфные экспертные системы, работающие в человеческом обществе, будут вынуждены также содержать в себе интерфейс, предназначенный для коммуникации с людьми.
Где-то здесь должна появляться фигура философа, нейро- и кибергерменевта, который наконец объяснит всем этим XAI и ее разработчикам из DARPA, что на самом деле означает "понимание". Хочется иронизировать: не будет ли сам философ нейросетью.
Анекдот, который подводит итоги программы "Цифровая экономика"
Forwarded from Черных и его коростели
Сижу на образовательной конференции EdCrunch, ведущие рассуждают о традиционных профессиях, big data, блокчейне... и один из выступающих неожиданно произносит:
— Многих из нас уже скоро заменит Игорь Иванович...
Зал напряжённо молчит. Выступающий нервно объясняет:
— Эээ... «Игорь Иванович» — это мы так искусственный интеллект называем...
Ясно-понятно.
— Многих из нас уже скоро заменит Игорь Иванович...
Зал напряжённо молчит. Выступающий нервно объясняет:
— Эээ... «Игорь Иванович» — это мы так искусственный интеллект называем...
Ясно-понятно.
Forwarded from Селедка над шубой
adblock в реальной жизни: стекла очков irl glasses – горизонтально поляризованные фильтры – отсекают вертикально поляризованный свет lcd-мониторов, и все экраны в поле зрения выглядят черными, будто выключены
авторы напоминают про "чужих среди нас" карпентера, где такие очки позволяли видеть подлинные сообщения, скрытые за ужимками рекламы: "смотри телевизор", "спи", "подчиняйся" (в переводе на русский язык мокрых щитов у обочины шоссе – "пей", "умри", "отчайся")
https://goo.gl/MBXDzY
https://www.kickstarter.com/projects/ivancash/irl-glasses-glasses-that-block-screens
https://www.tgoop.com/furherring/265
авторы напоминают про "чужих среди нас" карпентера, где такие очки позволяли видеть подлинные сообщения, скрытые за ужимками рекламы: "смотри телевизор", "спи", "подчиняйся" (в переводе на русский язык мокрых щитов у обочины шоссе – "пей", "умри", "отчайся")
https://goo.gl/MBXDzY
https://www.kickstarter.com/projects/ivancash/irl-glasses-glasses-that-block-screens
https://www.tgoop.com/furherring/265
Главное подозрение публики насчёт AI состоит в том, что это просто хайп, который скоро развеется, никакого прорыва, не говоря уже о сингулярности не будет, и мы тихо откатимся в ламповый XX век. Но вот MIT для AI-инженеров новый колледж за миллиард долларов. Хайп ли? https://www.technologyreview.com/the-download/612293/mit-has-just-announced-a-1-billion-plan-to-create-a-new-college-for-ai/
MIT Technology Review
MIT has just announced a $1 billion plan to create a new college for AI
One of the birthplaces of artificial intelligence, MIT, has announced a bold plan to reshape its academic program around the technology. With $1 billion in funding, MIT will create a new college that combines AI, machine learning, and data science with other…
Пока трансгуманисты бьются с гуманистами по вопросу о том, стоит ли нам сохранять homo sapiens или пора заменить его чем-то получше; пока компьютерные гики спорят с биопанками о том, какой сценарий киборгизации для нас предпочтительнее; и пока зоозащитники пишут статьи в стиле аналитической философии о том, этично ли есть авокадо (не шутка), настоящая революция незаметно, но коммерчески эффективно проходит по соседству.
К сожалению, интеллектуалы интересуются сельским хозяйством, тем более растениеводством, в основном в виде брокколи в своих тарелках, а не то мы заметили бы. В общем, в беззащитный мир растений вторглась какая-то там очередная грандиозная техника, с одной стороны биотех, а с другой - Big Data и роботы. В случае с человеком и животными это тоже происходит, но торжеству инженерного разума тут мешают политические и этические соображения (если вы, конечно, не китайское правительство, и речь не об уйгурах). Растения же становятся полигоном, на котором геном воспринимается в качестве технологической проблемы, а единственной верной целью является эффективность. Голая, так сказать, растительная жизнь, концлагерь для морковки, которую не спасет ни демократия, ни Гринпис.
Отдельные этические вопросы поднимаются, конечно, вроде защиты биоразнообразия и прав местных этносов на ДНК своих растений. Но это пока какая-то очень абстрактная повестка. Между делом, кстати, сильно ослаб мальтузианский нарратив о том, что человечество ждет голод. Технологии могут прокормить гораздо больше людей, чем сейчас живет на планете, вам просто нужны хорошие гены, много данных и роботов.
Уже сейчас все крупное сельское хозяйство работает только с генномодифицированными растениями, поскольку обратное просто не имеет коммерческого смысла. Страны, в которых разработка ГМО-образцов для коммерческого использования запрещены, сильно проигрывают на этом рынке, и Россия в как раз в этом списке.
Уже сейчас все эффективное сельское хозяйство завязано на IT, центром фермерского хозяйства является сервер со специализированным ПО, и умные машины заменяют "традиционную мудрость крестьянства", что особенно актуально с учетом изменяющегося климата.
Ну а на ближнем фронтире роботы, которые обрабатывают винную лозу, автономно работают в поле, и совсем уже апокалиптическая картина - микроспутники, которые выжигают лазерными лучами сорняки.
Вот статья Guardian об этом, и понятно, что самое интересное тут - это вопрос о том, в чем подвох. Очередной виток неравенства, новые технолатифундии, которые контролируются несколькими корпорациями и далее по списку? Что еще?
https://www.theguardian.com/environment/2018/oct/20/space-robots-lasers-rise-robot-farmer?fbclid=IwAR1Qab3VIBFZLRgyCb89ZCEI68d0voaGteqIs7v--WgJdCwG6Lt0UOy0iQ4
К сожалению, интеллектуалы интересуются сельским хозяйством, тем более растениеводством, в основном в виде брокколи в своих тарелках, а не то мы заметили бы. В общем, в беззащитный мир растений вторглась какая-то там очередная грандиозная техника, с одной стороны биотех, а с другой - Big Data и роботы. В случае с человеком и животными это тоже происходит, но торжеству инженерного разума тут мешают политические и этические соображения (если вы, конечно, не китайское правительство, и речь не об уйгурах). Растения же становятся полигоном, на котором геном воспринимается в качестве технологической проблемы, а единственной верной целью является эффективность. Голая, так сказать, растительная жизнь, концлагерь для морковки, которую не спасет ни демократия, ни Гринпис.
Отдельные этические вопросы поднимаются, конечно, вроде защиты биоразнообразия и прав местных этносов на ДНК своих растений. Но это пока какая-то очень абстрактная повестка. Между делом, кстати, сильно ослаб мальтузианский нарратив о том, что человечество ждет голод. Технологии могут прокормить гораздо больше людей, чем сейчас живет на планете, вам просто нужны хорошие гены, много данных и роботов.
Уже сейчас все крупное сельское хозяйство работает только с генномодифицированными растениями, поскольку обратное просто не имеет коммерческого смысла. Страны, в которых разработка ГМО-образцов для коммерческого использования запрещены, сильно проигрывают на этом рынке, и Россия в как раз в этом списке.
Уже сейчас все эффективное сельское хозяйство завязано на IT, центром фермерского хозяйства является сервер со специализированным ПО, и умные машины заменяют "традиционную мудрость крестьянства", что особенно актуально с учетом изменяющегося климата.
Ну а на ближнем фронтире роботы, которые обрабатывают винную лозу, автономно работают в поле, и совсем уже апокалиптическая картина - микроспутники, которые выжигают лазерными лучами сорняки.
Вот статья Guardian об этом, и понятно, что самое интересное тут - это вопрос о том, в чем подвох. Очередной виток неравенства, новые технолатифундии, которые контролируются несколькими корпорациями и далее по списку? Что еще?
https://www.theguardian.com/environment/2018/oct/20/space-robots-lasers-rise-robot-farmer?fbclid=IwAR1Qab3VIBFZLRgyCb89ZCEI68d0voaGteqIs7v--WgJdCwG6Lt0UOy0iQ4
the Guardian
‘We'll have space bots with lasers, killing plants’: the rise of the robot farmer
Tiny automated machines could soon take care of the entire growing process. Fewer chemicals, more efficient – where’s the downside?
Forwarded from DOXA
Сможет ли искусственный интеллект заменить преподавателей?
Пока в России обсуждают замену преподавателей на видео-записи их лекций, по всему миру всерьез говорят о замене некоторых лекторов на роботов.
В ходе выступления на конференции EDUCAUSE в Денвере представители Penn State University Дженнифер Спарроу и Кайл Боуэн рассказали о том, как искусственный интеллект и методы машинного обучения могут помочь преподавателям при подготовке к занятиям.
Например, разработанная в университете программа BBookX помогает найти новые материалы для курсов, обучаясь по реакциям пользователей на результаты запросов. Со временем программа начинает определять, что преподаватель имеет в виду под тем или иным термином, и представлять более релевантную информацию.
Упрощает работу профессоров генератор квизов Inquizitive. Преподаватель может напечатать определенный научный текст, и Inquizitive определит ключевые концепты, которые позволяют составить хороший тест по пройденному студентами материалу.
Другим способом примененния ИИ в учебном процессе может стать оценка аудиозаписей лекций и выдача фидбека по улучшению содержания и подачи материала.
Преимущество ИИ заключается в том, что он вносит элементы креатива и большей вовлеченности преподавателей и студентов в учебный процесс , делая его более "человечным". Тем не менее, несмотря на высокий потенциал использования искусственного интеллекта в образовательной сфере, Спарроу и Боуэн не считают, что он может полностью заменить традиционных лекторов.
Помимо университетов, ИИ и роботы начинают использоваться в школах. Например, Министертво образования Японии потратит $3 млн для внедрения 500 роботов в процесс обучения школьников английскому языку. Японские школы борятся за высококвалифицированных преподавателей английского, и зачастую им не хватает денег для их рекрутинга. Таким образом, роботы способны восполнить нехватку квалифицирванной рабочей силы.
Пока в России обсуждают замену преподавателей на видео-записи их лекций, по всему миру всерьез говорят о замене некоторых лекторов на роботов.
В ходе выступления на конференции EDUCAUSE в Денвере представители Penn State University Дженнифер Спарроу и Кайл Боуэн рассказали о том, как искусственный интеллект и методы машинного обучения могут помочь преподавателям при подготовке к занятиям.
Например, разработанная в университете программа BBookX помогает найти новые материалы для курсов, обучаясь по реакциям пользователей на результаты запросов. Со временем программа начинает определять, что преподаватель имеет в виду под тем или иным термином, и представлять более релевантную информацию.
Упрощает работу профессоров генератор квизов Inquizitive. Преподаватель может напечатать определенный научный текст, и Inquizitive определит ключевые концепты, которые позволяют составить хороший тест по пройденному студентами материалу.
Другим способом примененния ИИ в учебном процессе может стать оценка аудиозаписей лекций и выдача фидбека по улучшению содержания и подачи материала.
Преимущество ИИ заключается в том, что он вносит элементы креатива и большей вовлеченности преподавателей и студентов в учебный процесс , делая его более "человечным". Тем не менее, несмотря на высокий потенциал использования искусственного интеллекта в образовательной сфере, Спарроу и Боуэн не считают, что он может полностью заменить традиционных лекторов.
Помимо университетов, ИИ и роботы начинают использоваться в школах. Например, Министертво образования Японии потратит $3 млн для внедрения 500 роботов в процесс обучения школьников английскому языку. Японские школы борятся за высококвалифицированных преподавателей английского, и зачастую им не хватает денег для их рекрутинга. Таким образом, роботы способны восполнить нехватку квалифицирванной рабочей силы.
EdSurge
Robots Won’t Replace Instructors. Instead, They’ll Help Them Be ‘More Human.’ - EdSurge News
How will artificial intelligence and machine learning change teaching? It’s a question that some higher education instructors have asked before, and ...
Forwarded from Селедка над шубой
в генерации человеческих лиц нейросети (пока еще) далеко не идеальны, и несколько приемов (все еще) позволяют распознать фейковые фотографии
художник и программист kyle mcdonald советует обращать внимание на такие детали:
- тонкие волосы смазаны, будто нарисованы кистью
- нереалистичный фон, несуществующие буквы и символы в надписях
- глаза и уши чересчур асимметричны, соседние зубы сливаются
- повторяющиеся паттерны для заполнения фактуры кожи, одежды
- несуразные внешние половые признаки
https://goo.gl/5mQ2v3
https://medium.com/@kcimc/how-to-recognize-fake-ai-generated-images-4d1f6f9a2842
художник и программист kyle mcdonald советует обращать внимание на такие детали:
- тонкие волосы смазаны, будто нарисованы кистью
- нереалистичный фон, несуществующие буквы и символы в надписях
- глаза и уши чересчур асимметричны, соседние зубы сливаются
- повторяющиеся паттерны для заполнения фактуры кожи, одежды
- несуразные внешние половые признаки
https://goo.gl/5mQ2v3
https://medium.com/@kcimc/how-to-recognize-fake-ai-generated-images-4d1f6f9a2842
Forbes пишет, что ни одной реальной коммерческой блокчейн-технологии за последний год не появилось. Криптовалюты привели к всплеску продаж вычислительных мощностей, привели к чудовищным затратам энергии и после этого обвалились. На 2019 год технологические эксперты больше не делают прогнозов о том, как блокчейн все изменит. Все поболтали про непонятную, но модную фигню, и хватит.
https://www.forbes.com/sites/bernardmarr/2018/12/10/is-this-the-end-of-blockchain/
https://www.forbes.com/sites/bernardmarr/2018/12/10/is-this-the-end-of-blockchain/
Forbes
Is This The End Of Blockchain?
Blockchain promised to transform many industries – from financial services, to supply chain management, the legal sector, retail and many others. However, as many initial projects are failing to deliver real results we have to asked: Is this the end of the…
Forwarded from Сноб (Vika Vladimirova)
Исследование: «Фабрика троллей» создала в США поддельную горячую линию по борьбе с мастурбацией
Нейросеть Google под названием AlphaStar обыграла двух профессиональных игроков в StarCraft II с общим счетом 10-1. И это новость совсем не про видеоигры.
Как известно, после того, как AlphaGo обыграла Ли Седоля в 2016 году в го, люди больше не могут конкурировать с машинами в играх с полной информацией, где все участники игры знают все, что происходит в матче. Эпоха была открыта в 1998 году Каспаровым и DeepBlue и вот сейчас подошла к концу.
Следущая проблема для машины - игры с неполной информацией, которых гораздо больше, и которые сильно приближены к реальной жизни. В реальной жизни мы практически ничем больше не занимаемся, только принимаем решения в условиях дефицита информации.
Так что как только игры машин выйдут за пределы полной информации, тут и начнется самое интересное. Утверждалось, что следующий фронтир для нейросетей покер, но некоторые видеоигры, похоже, даже более интересны.
StarCraft в частности давно стала киберспортивной дисциплиной, поскольку в ней нет очевидной выигрышной стратегией, ценится умение быстро принимать тактические решения и адаптироваться к действиям противника. И вот все это теперь умеет Google.
Плюс видеоигр для машинного обучения в том, что ИИ может учится очень быстро, разыгрывая и анализируя очень много партий, не завися от медленного аналогового мира и человеческих решений. Примерно по той же логике беспилотные автомобили могут тренировать навыки дорожного движения внутри видеоигры GTA - не очень точно, но очень быстро.
Машина должна в сжатые сроки научиться тому, чему мы научились в результате миллионов лет эволюции: адаптироваться к принятию решений в условиях неполноты информации и меняющейся ситуации.
Из истории про AlphaStar не очень понятно, насколько ограничено было поле зрение программы во время игры - человеку, играющему в StarCraft нужно управлять камерой, чтобы видеть разные части игрового поля, машина может обойтись без этого. В любом случае, программа совершала меньше действий в минуту, чем оба профессиональных игрока-человека. Интересен кейс о том, как одному из игроков удалось выиграть одну партию.
Но самое важное в этой истории в том, что игроки описывают стратегию AlphaStar в качестве "инопланетной": программа играет не так, как играют люди, и не так, как они ожидали от алгоритмов.
Это означает, что нейросети, шагнувшие в мир с неполнотой информации, дадут нам совершенно иные способы решения проблем, не похожие на те, которые предопределены эволюцией наших когнитивных систем.
Вот к чему нужно готовиться. Aliens-studies только начинаются, причем чужих воспитаем мы сами.
Как известно, после того, как AlphaGo обыграла Ли Седоля в 2016 году в го, люди больше не могут конкурировать с машинами в играх с полной информацией, где все участники игры знают все, что происходит в матче. Эпоха была открыта в 1998 году Каспаровым и DeepBlue и вот сейчас подошла к концу.
Следущая проблема для машины - игры с неполной информацией, которых гораздо больше, и которые сильно приближены к реальной жизни. В реальной жизни мы практически ничем больше не занимаемся, только принимаем решения в условиях дефицита информации.
Так что как только игры машин выйдут за пределы полной информации, тут и начнется самое интересное. Утверждалось, что следующий фронтир для нейросетей покер, но некоторые видеоигры, похоже, даже более интересны.
StarCraft в частности давно стала киберспортивной дисциплиной, поскольку в ней нет очевидной выигрышной стратегией, ценится умение быстро принимать тактические решения и адаптироваться к действиям противника. И вот все это теперь умеет Google.
Плюс видеоигр для машинного обучения в том, что ИИ может учится очень быстро, разыгрывая и анализируя очень много партий, не завися от медленного аналогового мира и человеческих решений. Примерно по той же логике беспилотные автомобили могут тренировать навыки дорожного движения внутри видеоигры GTA - не очень точно, но очень быстро.
Машина должна в сжатые сроки научиться тому, чему мы научились в результате миллионов лет эволюции: адаптироваться к принятию решений в условиях неполноты информации и меняющейся ситуации.
Из истории про AlphaStar не очень понятно, насколько ограничено было поле зрение программы во время игры - человеку, играющему в StarCraft нужно управлять камерой, чтобы видеть разные части игрового поля, машина может обойтись без этого. В любом случае, программа совершала меньше действий в минуту, чем оба профессиональных игрока-человека. Интересен кейс о том, как одному из игроков удалось выиграть одну партию.
Но самое важное в этой истории в том, что игроки описывают стратегию AlphaStar в качестве "инопланетной": программа играет не так, как играют люди, и не так, как они ожидали от алгоритмов.
Это означает, что нейросети, шагнувшие в мир с неполнотой информации, дадут нам совершенно иные способы решения проблем, не похожие на те, которые предопределены эволюцией наших когнитивных систем.
Вот к чему нужно готовиться. Aliens-studies только начинаются, причем чужих воспитаем мы сами.
Forwarded from Россия в глобальной политике
Кристофер Кокер, профессор Лондонской школы экономики и один из самых интересных теоретиков войны и мира, на сессии про войны будущего сформулировал парадоксальное наблюдение. Речь шла о том, как развивалась мораль и этика войны. Кое-чего достигнуто за столетия, но в конечном итоге есть только один фундаментальный результат, достигнутый 25 000 лет назад. Человек гарантировал себе право быть убитым только (за исключением случайностей) другим человеком. А не животным, как было до появления оружия. Все остальное, в том числе "гуманные" способы ведения боевых действий и технические усовершенствования, - это частности. А сейчас происходит революция - впервые появляется возможность того, что человека будет убивать, то есть принимать решение о его смерти, не другой человек, а машина, искусственный интеллект. И это вызывает растерянность вплоть до ужаса.