tgoop.com/techsparks/5215
Last Update:
Элиезер Юдковский уже почти два десятилетия сражается с разработчиками ИИ, предсказывая, что если ИИ поумнеет, то обязательно замыслит недоброе и уничтожит человечество. После начала ИИ-бума его идеи получили широкое распространение, особенно после его радикальных высказываний на тему необходимости бомбардировок датацентров в любой стране.
Теперь все это сведено в большую новую книгу со все разъясняющим названием If Anyone Builds It, Everyone Dies - Why Superhuman AI Would Kill Us All. Выводы в ней не новы: the only solution is a complete shutdown of AI research.
Рецензия по ссылке, на удивление без восторгов, рассказывает о книге, отмечая массу натяжек и логических нестыковок (rely on flat assertions and shaky analogies, leaving massive holes in their logic) и массово типичное для ИИ-думеров когнитивное искажение: throughout the book, the authors fall prey to the basic cognitive bias of pareidolia, the tendency to see patterns—especially human patterns, such as faces and hands—where none exists.
В рецензии — неожиданно — объясняется, что по существу книга обслуживает интересы другого крыла: тех, кто обещает рай на земле и всеобщее изобилие благодаря AGI. В общем-то, и те, и другие видят супер-ИИ как типичного современного техно-олигарха с его мотивациями и желаниями: либо жадными, либо благородными. Вообразить ИИ как что-то большее и иное никто из них не в состоянии.
В общем, к радости ИИ-думеров появилась еще одна книга, на которую можно ссылаться и которой пытаться обосновывать свою позицию. Ждем массовых ее пересказов и соответствующих требований:) А рецензия по ссылке -- хорошее чтение на выходных для всех
https://www.theatlantic.com/books/archive/2025/09/what-ais-doomers-and-utopians-have-in-common/684270/
BY TechSparks

Share with your friend now:
tgoop.com/techsparks/5215