UNARTIFICIALINTELLIGENCE Telegram 125
Существуют футурологические «страшилки» о том, что Искусственный Интеллект превзойдет естественный разум и уничтожит человечество. Думаю, до этого еще далеко, а пока предлагаю вспомнить четыре класса риска для человечества, вызываемого искусственным интеллектом.
Итак, класс первый - Программная враждебность. Искусственный интеллект может стать опасным, если будет сознательно запрограммирован на враждебность. Например, военными или террористами для достижения преступных целей.
Класс второй - Пассивный риск. Например, Искусственный интеллект, у которого нет целей дружелюбия, отвечает за обработку полей пестицидами. Он будет обрабатывать посевы, даже тогда, когда на поле находятся люди.
Класс третий - Случайный риск. Искусственный интеллект, который работает с неполными данными, может ошибиться точно тaк же, как и человек. Ошибок такого рода избежать невозможно, как невозможно и знать все на свете.
Четвёртый класс - Риск непостижимости. Большая опасность Искусственного интеллекта состоит в спoсобности бесконечного самосовершенствования. В конечном итоге такой искусственный интеллект может превзойти возможности интеллекта человеческого.
Есть ли у вас еще идеи, какие риски могут быть? Пишите их внизу, в комментариях #подкаст_лучшее



tgoop.com/unartificialintelligence/125
Create:
Last Update:

Существуют футурологические «страшилки» о том, что Искусственный Интеллект превзойдет естественный разум и уничтожит человечество. Думаю, до этого еще далеко, а пока предлагаю вспомнить четыре класса риска для человечества, вызываемого искусственным интеллектом.
Итак, класс первый - Программная враждебность. Искусственный интеллект может стать опасным, если будет сознательно запрограммирован на враждебность. Например, военными или террористами для достижения преступных целей.
Класс второй - Пассивный риск. Например, Искусственный интеллект, у которого нет целей дружелюбия, отвечает за обработку полей пестицидами. Он будет обрабатывать посевы, даже тогда, когда на поле находятся люди.
Класс третий - Случайный риск. Искусственный интеллект, который работает с неполными данными, может ошибиться точно тaк же, как и человек. Ошибок такого рода избежать невозможно, как невозможно и знать все на свете.
Четвёртый класс - Риск непостижимости. Большая опасность Искусственного интеллекта состоит в спoсобности бесконечного самосовершенствования. В конечном итоге такой искусственный интеллект может превзойти возможности интеллекта человеческого.
Есть ли у вас еще идеи, какие риски могут быть? Пишите их внизу, в комментариях #подкаст_лучшее

BY Неискусственный интеллект


Share with your friend now:
tgoop.com/unartificialintelligence/125

View MORE
Open in Telegram


Telegram News

Date: |

As five out of seven counts were serious, Hui sentenced Ng to six years and six months in jail. On Tuesday, some local media outlets included Sing Tao Daily cited sources as saying the Hong Kong government was considering restricting access to Telegram. Privacy Commissioner for Personal Data Ada Chung told to the Legislative Council on Monday that government officials, police and lawmakers remain the targets of “doxxing” despite a privacy law amendment last year that criminalised the malicious disclosure of personal information. Telegram has announced a number of measures aiming to tackle the spread of disinformation through its platform in Brazil. These features are part of an agreement between the platform and the country's authorities ahead of the elections in October. During the meeting with TSE Minister Edson Fachin, Perekopsky also mentioned the TSE channel on the platform as one of the firm's key success stories. Launched as part of the company's commitments to tackle the spread of fake news in Brazil, the verified channel has attracted more than 184,000 members in less than a month. ‘Ban’ on Telegram
from us


Telegram Неискусственный интеллект
FROM American