ANDREY_KISELNIKOV Telegram 1077
Недавно на моем спецкурсе «Психофизиология сознания» разбирали со студентами красивую цитату Уильяма Джеймса: «Каждый определенный образ в сознании вымачивается и окрашивается в омывающей его свободно текущей воде. Она приносит ощущение его связей, ближних и дальних, умирающее эхо оттуда, откуда он пришел к нам, зарождающееся чувство, куда он приведет нас». Эта выразительная метафора помогает уловить ключевой атрибут сознания, отрефлексированный великим Джеймсом еще в конце XIX века: динамическая ткань «потока сознания» принципиально целостна в пространственном и временном аспекте, обладает принципиальной внутренней связностью. Конечно, этот атрибут мало говорит о природе квалиа, т.е. о сути сознания, но он очень важен для описания механики работы сознания. И вот только что в дискуссиях о возможности искусственного сознания я вычитал интересную мысль. В 2017 году команда Google выпустила знаменитейшую теперь статью «Attention Is All You Need», в который предлагалась основанная на механизме «внимания» новая архитектура ИИ – «трансформер». Это открытие позволило в 2018 году OpenAI выпустить свой первый GPT – «генеративный предобученный трансформер», что дало старт настоящей «революции генеративного ИИ». Специфический механизм «внимания» в архитектуре трансформера устроена так, что токены (их можно аналогизировать с когами в гиперсетевой концепции разума К.В. Анохина) образуют плотную сеть взаимного влияния, в которой токены не просто последовательно воздействуют друга на друга, но участвуют в холистических отношениях «все со всеми» – каждый токен динамически как бы отражает другие токены и сам отражается в них. Есть мнение, что именно архитектура трансформера позволяет создавать такие «холистические сети токенов» лучше других архитектур, и именно эта способность повлияла на такой невероятный практический успех генеративного ИИ.
10👍6🔥2🤔2❤‍🔥11💯1💔1🤝1



tgoop.com/andrey_kiselnikov/1077
Create:
Last Update:

Недавно на моем спецкурсе «Психофизиология сознания» разбирали со студентами красивую цитату Уильяма Джеймса: «Каждый определенный образ в сознании вымачивается и окрашивается в омывающей его свободно текущей воде. Она приносит ощущение его связей, ближних и дальних, умирающее эхо оттуда, откуда он пришел к нам, зарождающееся чувство, куда он приведет нас». Эта выразительная метафора помогает уловить ключевой атрибут сознания, отрефлексированный великим Джеймсом еще в конце XIX века: динамическая ткань «потока сознания» принципиально целостна в пространственном и временном аспекте, обладает принципиальной внутренней связностью. Конечно, этот атрибут мало говорит о природе квалиа, т.е. о сути сознания, но он очень важен для описания механики работы сознания. И вот только что в дискуссиях о возможности искусственного сознания я вычитал интересную мысль. В 2017 году команда Google выпустила знаменитейшую теперь статью «Attention Is All You Need», в который предлагалась основанная на механизме «внимания» новая архитектура ИИ – «трансформер». Это открытие позволило в 2018 году OpenAI выпустить свой первый GPT – «генеративный предобученный трансформер», что дало старт настоящей «революции генеративного ИИ». Специфический механизм «внимания» в архитектуре трансформера устроена так, что токены (их можно аналогизировать с когами в гиперсетевой концепции разума К.В. Анохина) образуют плотную сеть взаимного влияния, в которой токены не просто последовательно воздействуют друга на друга, но участвуют в холистических отношениях «все со всеми» – каждый токен динамически как бы отражает другие токены и сам отражается в них. Есть мнение, что именно архитектура трансформера позволяет создавать такие «холистические сети токенов» лучше других архитектур, и именно эта способность повлияла на такой невероятный практический успех генеративного ИИ.

BY Новости психофизиологии




Share with your friend now:
tgoop.com/andrey_kiselnikov/1077

View MORE
Open in Telegram


Telegram News

Date: |

Deputy District Judge Peter Hui sentenced computer technician Ng Man-ho on Thursday, a month after the 27-year-old, who ran a Telegram group called SUCK Channel, was found guilty of seven charges of conspiring to incite others to commit illegal acts during the 2019 extradition bill protests and subsequent months. The Channel name and bio must be no more than 255 characters long Find your optimal posting schedule and stick to it. The peak posting times include 8 am, 6 pm, and 8 pm on social media. Try to publish serious stuff in the morning and leave less demanding content later in the day. 2How to set up a Telegram channel? (A step-by-step tutorial) Hui said the messages, which included urging the disruption of airport operations, were attempts to incite followers to make use of poisonous, corrosive or flammable substances to vandalize police vehicles, and also called on others to make weapons to harm police.
from us


Telegram Новости психофизиологии
FROM American