AIHAPPENS Telegram 211
Я послушал Сэма Альтмана в сенате США по поводу регулирования ИИ-моделей. Это было довольно интересное, но не самое благодарное занятие, так как их английский бывает сложноват (тут должно быть нативная реклама skyeng:) ) . Вот краткий обзор:


1) Биологическое оружие: он предупредил о возможном неправомерном использовании ИИ в создании биологического оружия и подчеркнул необходимость регулирования для предотвращения таких сценариев.

2) Потеря работы: Альтман подчеркнул, что развитие ИИ может привести к значительной потере рабочих мест и усилению неравенства.

3) Регулирование ИИ: он предложил создать новое агентство для лицензирования и регулирования деятельности ИИ, если их возможности превышают определенный порог.

4) Стандарты безопасности: Альтман предложил разработать стандарты безопасности, которым должны соответствовать модели ИИ перед развертыванием, включая тесты на самовоспроизведение и эксфильтрацию данных.

5) Независимые аудиты: он рекомендовал проведение независимых аудитов, чтобы убедиться, что модели ИИ соответствуют установленным стандартам безопасности.

6) ИИ как инструмент: Альтман подчеркнул, что ИИ, особенно продвинутые модели, такие как GPT-4, следует рассматривать как инструменты, а не как разумные существа.

7) Сознание ИИ: несмотря на то, что ИИ следует рассматривать как инструмент, он признал продолжающиеся дискуссии в научном сообществе относительно потенциального сознания ИИ.

8) Военные приложения: Альтман признал потенциал использования ИИ в военных приложениях, таких как автономные дроны, и призвал к принятию правил, регулирующих такое использование.

9) Неизбежность AGI: он предупредил, что более мощные и сложные системы ИИ могут быть ближе к реальности, чем многие думают, и подчеркнул необходимость готовности и превентивных мер.

Также он упомянул, что мы, возможно, не сможем контролировать Китай, но с ним надо идти договариваться. По поводу тестирования и регулирования моделей ИИ, предложенные критерии включают возможность создания биологических образцов, манипуляцию мнением людей, объем потраченной вычислительной мощности и т.д.

В целом, важным трендом является то, что Сэму стоит строить "отношения" с государством. Я надеюсь, что они не пойдут по пути Европы, о котором писал выше.

@aihappens
👍7124🤔10❤‍🔥7🤬2🔥1🙉1



tgoop.com/aihappens/211
Create:
Last Update:

Я послушал Сэма Альтмана в сенате США по поводу регулирования ИИ-моделей. Это было довольно интересное, но не самое благодарное занятие, так как их английский бывает сложноват (тут должно быть нативная реклама skyeng:) ) . Вот краткий обзор:


1) Биологическое оружие: он предупредил о возможном неправомерном использовании ИИ в создании биологического оружия и подчеркнул необходимость регулирования для предотвращения таких сценариев.

2) Потеря работы: Альтман подчеркнул, что развитие ИИ может привести к значительной потере рабочих мест и усилению неравенства.

3) Регулирование ИИ: он предложил создать новое агентство для лицензирования и регулирования деятельности ИИ, если их возможности превышают определенный порог.

4) Стандарты безопасности: Альтман предложил разработать стандарты безопасности, которым должны соответствовать модели ИИ перед развертыванием, включая тесты на самовоспроизведение и эксфильтрацию данных.

5) Независимые аудиты: он рекомендовал проведение независимых аудитов, чтобы убедиться, что модели ИИ соответствуют установленным стандартам безопасности.

6) ИИ как инструмент: Альтман подчеркнул, что ИИ, особенно продвинутые модели, такие как GPT-4, следует рассматривать как инструменты, а не как разумные существа.

7) Сознание ИИ: несмотря на то, что ИИ следует рассматривать как инструмент, он признал продолжающиеся дискуссии в научном сообществе относительно потенциального сознания ИИ.

8) Военные приложения: Альтман признал потенциал использования ИИ в военных приложениях, таких как автономные дроны, и призвал к принятию правил, регулирующих такое использование.

9) Неизбежность AGI: он предупредил, что более мощные и сложные системы ИИ могут быть ближе к реальности, чем многие думают, и подчеркнул необходимость готовности и превентивных мер.

Также он упомянул, что мы, возможно, не сможем контролировать Китай, но с ним надо идти договариваться. По поводу тестирования и регулирования моделей ИИ, предложенные критерии включают возможность создания биологических образцов, манипуляцию мнением людей, объем потраченной вычислительной мощности и т.д.

В целом, важным трендом является то, что Сэму стоит строить "отношения" с государством. Я надеюсь, что они не пойдут по пути Европы, о котором писал выше.

@aihappens

BY AI Happens


Share with your friend now:
tgoop.com/aihappens/211

View MORE
Open in Telegram


Telegram News

Date: |

How to create a business channel on Telegram? (Tutorial) In 2018, Telegram’s audience reached 200 million people, with 500,000 new users joining the messenger every day. It was launched for iOS on 14 August 2013 and Android on 20 October 2013. Telegram Android app: Open the chats list, click the menu icon and select “New Channel.” The SUCK Channel on Telegram, with a message saying some content has been removed by the police. Photo: Telegram screenshot. Ng was convicted in April for conspiracy to incite a riot, public nuisance, arson, criminal damage, manufacturing of explosives, administering poison and wounding with intent to do grievous bodily harm between October 2019 and June 2020.
from us


Telegram AI Happens
FROM American