Ученые назвали наихудшие сценарии развития ИИ: массовые потрясения, гибель человечества

Новости
Искусственный интеллект
Фото: zsrf.ru.
Фото: zsrf.ru.

В статье, опубликованной в журнале The Week, говорится, что более 350 человек, изучающих развитие искусственного интеллекта (ИИ), предупредили об опасности, которую можно сравнить с пандемией и ядерной войной.

В опросе экспертов по ИИ 2022 года средние шансы, которые они поставили на то, что искусственный интеллект вызовет вымирание или «серьезное лишение человеческого вида», составляли 1 к 10.  

«Крестный отец искусственного интеллекта», британский ученый Джеффри Хинтон считает, что мощное развитие ИИ способно вызвать социальные потрясения и даже уничтожение человечества. «Многим умным людям следовало бы приложить немало усилий, чтобы выяснить, как мы справляемся с возможностью захвата власти ИИ», — говорит он.

Американский миллиардер Илон Маск в апреле 2023 года года заявил, что ИИ уничтожит цивилизацию. Уже к 2030 году он будет умнее человека.

Джеффри Хинтон раньше думал, что опасность грозит по меньшей мере через 30 лет. Сейчас он говорит, что ИИ развивается в сверхразум так быстро, что может стать умнее людей всего за пять лет.

ChatGPT на базе искусственного интеллекта и чат-бот Bing уже могут сдавать экзамены на получение адвокатской и медицинской лицензии, включая разделы эссе, а в тестах IQ получают оценку в 99 процентиле — уровень гениальности.

Хинтон и другие с опасением ждут момента, когда «искусственный общий интеллект» (AGI) сможет превзойти людей практически в решении любой задачи.

Некоторые эксперты по ИИ сравнивают такую возможность с внезапным прибытием на нашу планету высшей инопланетной расы. Вы «понятия не имеете, что они собираются делать, когда доберутся сюда, за исключением того, что они собираются захватить мир», — сказал ученый-компьютерщик, пионер в области искусственного интеллекта Стюарт Рассел.

По одному прогнозу, ИИ, которому поручат решать проблему изменения климата, придет к выводу, что самый быстрый способ остановить выбросы углерода — уничтожение человечества. «Он делает именно то, что вы хотели, но не так, как вы хотели», — пояснил автор книги об угрозе ИИ Том Чиверс.

Другой сценарий: злонамеренные актеры будут использовать возможности ИИ для создания нового биологического оружия, более смертоносного, чем естественные пандемии.

В некоторых сценариях искусственный интеллект решит освободиться от контроля своих создателей. Чтобы избавиться от людей, ИИ может обмануть лидеров страны, заставив их поверить, что враг запустил ядерные ракеты, чтобы они запустили свои собственные.

Другие прогнозируют, что ИИ может проектировать и создавать машины или биологические организмы, подобные Терминатору, чтобы выполнять его инструкции в реальном мире.

Есть эксперты по ИИ, которые скептически относятся к тому, что он может вызвать апокалипсис. Ученые говорят, что наша способность использовать искусственный интеллект будет развиваться вместе с ним. И прогнозы о том, что алгоритмы и машины разовьют собственную волю, является раздутым страхом, вызванным научной фантастикой, а не прагматичной оценкой рисков технологии.

Но бьющие тревогу утверждают, что невозможно точно представить, что могут сделать гораздо более сложные, чем сегодняшние, системы ИИ. И недальновидно отвергать сценарии наихудшего развития событий.

close

О, привет 👋
Приятно познакомиться.

Подпишитесь, чтобы получать замечательный контент каждый день.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *