banner

Блог

Aug 07, 2023

ИИ не уничтожит человечество (пока)

Майкл Калор Лорен Гуд

Идея о том, что машинный интеллект однажды захватит мир, уже давно стала основой научной фантастики. Но, учитывая быстрое развитие инструментов искусственного интеллекта на потребительском уровне, за последние несколько месяцев этот страх стал ближе к реальности, чем когда-либо прежде. Увлечение генеративным искусственным интеллектом вызвало в равной степени волнение и опасения, заставляя многих людей беспокоиться о том, куда движется будущее этой явно мощной, но все еще зарождающейся технологии. Например, на этой неделе некоммерческая группа «Центр безопасности ИИ» опубликовала короткое заявление, предупреждающее, что общество должно относиться к ИИ как к экзистенциальной угрозе так же серьезно, как мы относимся к ядерной войне и пандемиям.

На этой неделе в Gadget Lab мы поговорим со старшим писателем WIRED Уиллом Найтом о том, насколько на самом деле опасен ИИ и какие ограждения мы можем поставить, чтобы предотвратить апокалипсис роботов.

Прочтите рассказ Уилла об экспертах, обеспокоенных тем, что ИИ представляет реальную угрозу человечеству. Прочтите все репортажи WIRED об искусственном интеллекте.

Уилл рекомендует роман «Блюз антивещества» Эдварда Эштона. Майк рекомендует хранить еду в пчелиной упаковке вместо одноразовых пластиковых изделий. Лорен рекомендует подкаст HBO «Наследие», который ведет Кара Свишер.

Уилла Найта можно найти в Твиттере @willknight. Лорен Гуд — @LaurenGoode. Майкл Калор — @snackfight. Украсьте главную горячую линию @GadgetLab. Продюсером шоу является Бун Эшворт (@booneashworth). Наша музыкальная тема написана Solar Keys.

Вы всегда можете послушать подкаст этой недели через аудиоплеер на этой странице, но если вы хотите бесплатно подписаться, чтобы получать все выпуски, вот как это сделать:

Если у вас iPhone или iPad, откройте приложение «Подкасты» или просто нажмите эту ссылку. Вы также можете загрузить приложение, такое как Overcast или Pocket Casts, и выполнить поиск по запросу Gadget Lab. Если вы используете Android, вы можете найти нас в приложении Google Podcasts, просто нажав здесь. Мы тоже есть на Spotify. А если вам это действительно нужно, вот RSS-канал.

Лорен Гуд: Майк.

Майкл Калор: Лорен.

Лорен Гуд: Я подумал, что сегодня нам следует поговорить о нашем собственном вымирании.

Лорен Гуд

Лорен Гуд

Джулиан Чоккатту

ПРОВОДНОЙ персонал

Майкл Калор: Вы имеете в виду журналистов, подкастеров или людей?

Лорен Гуд: Возможно оба.

Майкл Калор: Большой.

Лорен Гуд : Ага. Ага. Это еще один подкаст об искусственном интеллекте, но я думаю, что люди действительно захотят его послушать.

Майкл Калор: Могу ли я спросить, когда мы собираемся дать людям возможность послушать что-то действительно обнадеживающее?

Лорен Гуд: Ну, вообще-то я думаю, что это тоже часть шоу.

Майкл Калор: Ок, отлично.

Лорен Гуд: Итак, приступим к делу.

[Звучит музыкальная тема из вступления Gadget Lab]

Лорен Гуд : Всем привет. Добро пожаловать в Лабораторию гаджетов. Я Лорен Гуд. Я старший писатель в WIRED.

Майкл Калор : А я Майкл Калор. Я старший редактор WIRED.

Лорен Гуд : И сегодня к нам присоединяется наш коллега-писатель Уилл Найт из Кембриджа, штат Массачусетс. Уилл, здорово, что ты вернулся в Лабораторию гаджетов.

Уилл Найт : Привет. Как здорово вернуться.

Лорен Гуд : На днях, Уилл, мы свяжемся с тобой и просто скажем: «Хочешь поговорить о кошачьих гаджетах или о чем-то еще?» Но сейчас вы находитесь непосредственно в сфере освещения ИИ. Именно об этом мы и хотим с вами поговорить. Да, мы снова говорим об ИИ, но на этот раз это заявление группы технологов, предупреждающих о экзистенциальной угрозе человечеству. Это было заявление из одного предложения, которое прозвучало в мире технологий в начале этой недели. «Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война». Оно поступило от некоммерческой организации Центра безопасности ИИ и было подписано ведущими деятелями развития ИИ. Очевидно, это не первый раз, когда нас предупреждают об опасностях ИИ. Некоторые из наших слушателей, возможно, помнят паузу, к которой призывали сотни ведущих технологов и исследователей еще в марте, и которая до сих пор не привела к паузе. Но все эти предупреждения о конце света заставили нас задуматься: чему нам следует верить в отношении потенциального вреда ИИ и кто из этих исследователей и технологов высказывает сейчас наиболее заслуживающее доверия мнение? Уилл, мы хотели пригласить тебя поговорить об этом. Сначала пройдите немного назад. Расскажите нам немного об этом заявлении Центра безопасности ИИ. Что послужило толчком к этому?

ДЕЛИТЬСЯ