METAPROGRAMMING Telegram 156
Модельный субъект

ИИ сейчас как какая-то коробка конфет, всем интересно посмотреть, всем интересно попробовать.

Полное определение ИИ даже его создатели не дают, но с чего-то надо начать. Искусственный интеллект, как его сейчас понимают, является сортом "статистического интеллекта". Некоторые ИИ-продукты прямо и являются в сути своей статистическими моделями некоей предметной области (ИИ-врач, ИИ-судья, ...), другие представляют собой более сложные лингвистические модели (варианты GPT общего назначения и специализированные на конкретной области), но сделанные, снова, на стереотипном материале.

Подготовкой правильного первичного материала последнее время занималось всё человечество. Кое-где сама область применения априори располагает к приложению ИИ, например юриспруденция. В самом деле, право всегда движется в сторону всё большей кодификации и стандартизации (сначала самих законов, потом процедурных аспектов, потом практики применения и т.д.). Поэтому формально судья и должен быть ботом – воплощением Фемиды с повязкой на глазах.

Глаза, однако, у судьи (а тем более у присяжных) в реальности открыты. Подразумевается, что судья может в глазах преступника, у которого и данные профиля однозначные (начал воровать в школе, получил отсидку по малолетству), и преступление понятное (украл велосипед), углядеть что-то этакое, выходящее за рамки, и дать срок поменьше или заменить условным. Впрочем, может и не во взгляде увидеть, а во второстепенных обстоятельствах дела, которые по существу и рассматривать не стоило бы (додумать можно известно как).

Обычно это считается недостатком системы правосудия. Мол, человек судит необъективно. Для объективности есть статистические модели (они же ИИ), вот один из примеров: чёрным подсудимым ИИ, помогающий судье сформулировать приговор, накидывал срок побольше, т.к. они были из рискованных районов (раса, естественно, как таковая не входила в алгоритм).

Получаем в итоге своеобразный гиперрасизм – дискриминацию всех людей по неким "анкетным данным", которые создатели ИИ заложили в первичную выборку. А ничего кроме "анкетных данных" они заложить не могут (а если будет что-то вроде психологического профилирования, так это будет вдесятеро хуже знаменитой карательной психиатрии двадцатого века), т.к. в целом людей понимают плохо.

Создатели ИИ – аутисты, которые всё человеческое (по сути своей) ненавидят. Не как индивидуальные личности (хотя и это, кстати, тоже), но как социальные структуры. Сами эти структуры и есть в каком-то смысле первые на планете искусственные интеллекты – мыслящие машины.

И в таком контексте множество странноватых вещей становятся простыми и понятными.

Зачем Википедии формулировать всю систему внутренних правил исходя единственно из императива "убрать всё творчество"? На первый взгляд разумно, энциклопедичность, объективность и т.д. Но потом сама Википедия уже становится не просто срезом текущих мнений, на который ориентироваться надо только обывателям (чтобы не тратить лишнее время на собственные изыскания), а зацементированным уложением по всем важным вопросам, диктующим всему миру и всем социальным группам правильную точку зрения.

Тоже самое и с Кохрейновскими обзорами в медицине. Справка о том что "в таких-то случаях обычно помогает такое-то лекарство" (по текущим соображениям) превращается в безусловный диктат "ничего другого никогда не применять, даже если надо по конкретным обстоятельствам".

Тоже самое и в системе образования. Сочинение на ЕГЭ должно содержать формулировку проблемы, пару цитат, что хотел сказать автор, выводы. А чего ещё можно требовать от школьника сверх того? А не надо и этого требовать.

Формат упаковки данных для удобства передачи информации подменяет собой содержание знания.

Это и есть идеальный мир ИИ. Мир, где конфеты судят строго по упаковке, а содержание и вкус обсуждать неприлично.

Мир без творчества.

Мир паукообразных, которые решили, что раз ничего придумывать они по-человечески не умеют, то надо сделать так, чтобы и никто уже не смог.

#philosophy #neuronetworks



tgoop.com/metaprogramming/156
Create:
Last Update:

Модельный субъект

ИИ сейчас как какая-то коробка конфет, всем интересно посмотреть, всем интересно попробовать.

Полное определение ИИ даже его создатели не дают, но с чего-то надо начать. Искусственный интеллект, как его сейчас понимают, является сортом "статистического интеллекта". Некоторые ИИ-продукты прямо и являются в сути своей статистическими моделями некоей предметной области (ИИ-врач, ИИ-судья, ...), другие представляют собой более сложные лингвистические модели (варианты GPT общего назначения и специализированные на конкретной области), но сделанные, снова, на стереотипном материале.

Подготовкой правильного первичного материала последнее время занималось всё человечество. Кое-где сама область применения априори располагает к приложению ИИ, например юриспруденция. В самом деле, право всегда движется в сторону всё большей кодификации и стандартизации (сначала самих законов, потом процедурных аспектов, потом практики применения и т.д.). Поэтому формально судья и должен быть ботом – воплощением Фемиды с повязкой на глазах.

Глаза, однако, у судьи (а тем более у присяжных) в реальности открыты. Подразумевается, что судья может в глазах преступника, у которого и данные профиля однозначные (начал воровать в школе, получил отсидку по малолетству), и преступление понятное (украл велосипед), углядеть что-то этакое, выходящее за рамки, и дать срок поменьше или заменить условным. Впрочем, может и не во взгляде увидеть, а во второстепенных обстоятельствах дела, которые по существу и рассматривать не стоило бы (додумать можно известно как).

Обычно это считается недостатком системы правосудия. Мол, человек судит необъективно. Для объективности есть статистические модели (они же ИИ), вот один из примеров: чёрным подсудимым ИИ, помогающий судье сформулировать приговор, накидывал срок побольше, т.к. они были из рискованных районов (раса, естественно, как таковая не входила в алгоритм).

Получаем в итоге своеобразный гиперрасизм – дискриминацию всех людей по неким "анкетным данным", которые создатели ИИ заложили в первичную выборку. А ничего кроме "анкетных данных" они заложить не могут (а если будет что-то вроде психологического профилирования, так это будет вдесятеро хуже знаменитой карательной психиатрии двадцатого века), т.к. в целом людей понимают плохо.

Создатели ИИ – аутисты, которые всё человеческое (по сути своей) ненавидят. Не как индивидуальные личности (хотя и это, кстати, тоже), но как социальные структуры. Сами эти структуры и есть в каком-то смысле первые на планете искусственные интеллекты – мыслящие машины.

И в таком контексте множество странноватых вещей становятся простыми и понятными.

Зачем Википедии формулировать всю систему внутренних правил исходя единственно из императива "убрать всё творчество"? На первый взгляд разумно, энциклопедичность, объективность и т.д. Но потом сама Википедия уже становится не просто срезом текущих мнений, на который ориентироваться надо только обывателям (чтобы не тратить лишнее время на собственные изыскания), а зацементированным уложением по всем важным вопросам, диктующим всему миру и всем социальным группам правильную точку зрения.

Тоже самое и с Кохрейновскими обзорами в медицине. Справка о том что "в таких-то случаях обычно помогает такое-то лекарство" (по текущим соображениям) превращается в безусловный диктат "ничего другого никогда не применять, даже если надо по конкретным обстоятельствам".

Тоже самое и в системе образования. Сочинение на ЕГЭ должно содержать формулировку проблемы, пару цитат, что хотел сказать автор, выводы. А чего ещё можно требовать от школьника сверх того? А не надо и этого требовать.

Формат упаковки данных для удобства передачи информации подменяет собой содержание знания.

Это и есть идеальный мир ИИ. Мир, где конфеты судят строго по упаковке, а содержание и вкус обсуждать неприлично.

Мир без творчества.

Мир паукообразных, которые решили, что раз ничего придумывать они по-человечески не умеют, то надо сделать так, чтобы и никто уже не смог.

#philosophy #neuronetworks

BY Metaprogramming


Share with your friend now:
tgoop.com/metaprogramming/156

View MORE
Open in Telegram


Telegram News

Date: |

The administrator of a telegram group, "Suck Channel," was sentenced to six years and six months in prison for seven counts of incitement yesterday. Unlimited number of subscribers per channel So far, more than a dozen different members have contributed to the group, posting voice notes of themselves screaming, yelling, groaning, and wailing in various pitches and rhythms. A Telegram channel is used for various purposes, from sharing helpful content to implementing a business strategy. In addition, you can use your channel to build and improve your company image, boost your sales, make profits, enhance customer loyalty, and more. Among the requests, the Brazilian electoral Court wanted to know if they could obtain data on the origins of malicious content posted on the platform. According to the TSE, this would enable the authorities to track false content and identify the user responsible for publishing it in the first place.
from us


Telegram Metaprogramming
FROM American