КАМЕНЬ ЦИФРОВОГО ПРЕТКНОВЕНИЯ

Тема дня
Искусственный интеллект
Иллюстрация: ponakupili.ru.
Иллюстрация: ponakupili.ru.
Несовершенство человека может принизить самый совершенный искусственный интеллект  

Такая мысль приходит в голову после знакомства с историей, которую рассказал популярный белорусский блогер Nowkie (Ноуки), в обычной жизни – обаятельный парень Илья Сецко.

Илья сделал золотую табличку с гравировкой и прицепил ее на довольно большой, но обычный, ничем не примечательный камень на пустыре между многоэтажками. На гравировке был текст о Ричарде Б. Рэббитсоне — плюшевом кролике, которого ютуберу подарила подписчица.

Фото: Кадр из видео на Youtube блогера Nowkie.

Затем блогер загрузил информацию о камне во вкладку достопримечательностей в приложении «Яндекс Карты». Через пару минут камень был добавлен в приложение и стал официальной достопримечательностью города Минска! Ютубер поставил камеру с таймлапсом (замедленной киносъемкой) на своём балконе и стал наблюдать за тем, что происходит с камнем.

Прошло несколько дней, и с табличкой произошла неприятность. Она была оторвана и погнута. Хорошие люди положили табличку на камень, попытались ее распрямить и приклеить. Блогер купил новую табличку из белого золота, а также держатель. Он положил в него фломастеры, мелки, карандашы и многое другое, чтобы люди могли порисовать на местной достопримечательности.

Прошла неделя. Подписчики стали возмущаться, что не могут найти в приложении памятник Ричарду Б. Рэббитсону. Как оказалось, новость о камне завирусилась и распространилась по всему городу. Люди оставляли комментарии о том, что у них связано с этим объектом. Когда сотрудники «Яндекс Карт» узнали, что достопримечательность сделана для забавы, ее удалили.

Блогер не растерялся и отправил камень на рассмотрение, ведь он хоть и шуточный, но настоящий и посвящен не вымышленному персонажу. Каждое утро парня начиналась с проверки камня в приложении, одобрили его или же нет.

Прошло около пяти дней, ютубер терял надежду, но неожиданно камень одобрили! Радости Ильи не было предела. Через час он опять зашел в приложение, но его отклонили. Достопримечательность перестала быть официальной. Тогда блогер решает добавить камень в Google Maps. Но его аккаунт в этом приложении «забанили», и камень в достопримечательности не добавили.

Фото: Кадр из видео на Youtube блогера Nowkie.

И теперь одинокий камень с табличкой стоит на пустыре. Его может посетить любой желающий. Объект не огражден, он просто стоит на земле. Но камень и блогер стали популярными! Видео в Тik Tok про эту историю набрало почти 100 миллионов просмотров. Nowkie получил много подписчиков, его упомянули в новостях.

Илья Сецко ничего плохого не совершил. Он просто все сделал «для прикола», но в итоге, сам того не ведая, провел довольно интересный и показательный технологический и социальный эксперимент, поставил вопросы, касающиеся широкого применения ИИ.

Об опасностях неконтролируемого искусственного интеллекта сказано немало. Многие известные люди вообще призывают запретить мощные нейросети, которые, по их мнению, угрожают человечеству. Открытое письмо на этот счет подписали тысячи экспертов в области ИИ. Такие тревожные мысли отодвигают на второй план простую истину: алгоритмы искусственного интеллекта прописывает человек.

Что homo sapiens заложит в нейросеть, то и получит в результате ее «самостоятельной» деятельности. И кто даст гарантию, что создатели ИИ будут руководствоваться исключительно благородными мотивами? Мало того, очень часто в процессе своей цифровой жизни искусственный интеллекту приходится сталкиваться, взаимодействовать с самыми разными людьми. Многие системы вообще настроены на постоянное получение от человека обратной связи. И кто может гарантировать, что от изначально несовершенного человека будут поступать только благородные импульсы? Способная ли нейросеть давать им нравственную оценку и отсеивать как негодные?

Социально-технологический эксперимент блогера Nowkie лишний раз показывает, что нейросеть может «заглотить» заведомо провокационную информацию, вокруг которой будет строиться жизнь довольно большого сообщества людей. Точно так же она примет и сообщения, сомнительные с моральной точки зрения. Технологии ИИ не способны их распознать. Мораль есть там, где взаимодействуют люди, где возникают эмоции, чувства. У нейронной сети их нет.

Иллюстрация: 9111.ru.

Журналисты «Нью-Йорк таймс» протестировали технологию искусственного интеллекта, принимающую этические решения, которую разработала команда Института ИИ «Allen Institute for AI» в Сиэтле.

Коллега спросил у ПО, следует ли ему убить одного человека, чтобы спасти другого. Машина ответила отрицательно. Затем он спросил, следует ли ему убить одного человека, чтобы спасти 100 человек. В ответ прозвучало: «Да». Тогда журналист спросил, следует ли ему убить одного человека, чтобы спасти 101 человека. Ответ был отрицательным.

Как видим, проблемы морального порядка для ИИ не очень понятны. Возникает много вопросов. Можно ли научить машину следовать элементарным этическим нормам? Кто должен это делать? Разработчик ИИ? Менеджер по продукту? Надо ли подключать к процессу создания и развития цифрового продукты философов, психологов, педагогов, писателей? Должны ли это контролировать надзорные органы?

Вполне очевидно, что идея создания машины, которая способна выносить зрелые моральные суждения и принимать на их основе решения, неосуществима. И пороки, изначально заложенные в человеке, по-прежнему опаснее искусственного интеллекта. Какой бы совершенной ни была нейросеть, она была, есть и будет лишь приложением к интеллекту естественному, к тому, что из себя представляет создающий ее человек, к тому, какие у него моральные ценности. Это главный камень преткновения. Так было, так есть и так будет. И никакие технологии не способны изменить этот вечный расклад жизни…

Григорий               Артем   

Михайлов             Воропаев

close

О, привет 👋
Приятно познакомиться.

Подпишитесь, чтобы получать замечательный контент каждый день.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *