Парадокс одиночества. Глобальное исследование нарастающей разобщенности человечества и ее последствий - Норина Герц
Шрифт:
Интервал:
Закладка:
Так, что? Значит, дело закрыто? Можно ли хотя бы частично решить некоторые из проблем (изоляция, отсутствие друзей, ощущение, что никто не заботится о тебе, боль от того, что тебя не слышат или не понимают), которые мы обозначили в предыдущих главах, с помощью все более сложных версий Алексы, Хармони или Пеппер?
В той степени, в которой одиночество является чисто проблемой для человека, я считаю, что роботы действительно могут играть значительную роль, тем более что было бы категорической ошибкой предполагать, что в роботах есть что-то неотъемлемое, что делает невозможным их дружбу с нами. Просто подумайте о широте дружеских отношений, которые у вас есть в вашей жизни. В чем-то вы вполне можете сходиться, но, вероятно, не во всем. В некоторых случаях ваши ценности четко совпадают, а интересы являются общими, но в других случаях вы можете не знать, что на самом деле думает и чувствует ваш друг. Дружба человека и робота может не соответствовать всем аристотелевским критериям идеальной дружбы (то, что он называет «добродетельной дружбой»), но это не значит, что она не может быть достаточно хороша, чтобы удовлетворить человеческую потребность тех, кто жаждет с кем-то поговорить и быть услышанным.
В некотором смысле роботы могут даже предложить более эгалитарное решение проблемы одиночества, потому что роботы будут предлагать заботу, поддержку и привязанность всем – старым или молодым, уродливым или красивым, какими бы дряхлыми, непопулярными или непривлекательными мы ни были в «реальном» мире – они будут рядом с нами. При условии, что они будут доступны по цене.
Однако, как мы видели на протяжении всей этой книги, одиночество – это не только проблема отдельного человека. И проблема в том, что даже если роботы позволяют нам чувствовать себя менее одинокими и даже если они помогают удовлетворить потребность людей в общении, это вполне может происходить за счет того, что мы относимся к друг к другу и обращаемся друг с другом, как с людьми.
То, как мы относимся к нашим роботам, может повлиять на то, как мы будем вести себя по отношению друг к другу.
И мы уже знаем, что люди могут быть очень недобры к своим роботам и даже жестоки.
Новый навык от Алексы – «недоброжелательность»?
Когда пьяный 60-летний мужчина рассердился на сотрудника магазина мобильных телефонов SoftBank, он пнул робота Пеппер, который работал в вестибюле, повредив его компьютерную систему и колеса. Когда Саманта, «умная» секс-кукла стоимостью 3000 фунтов стерлингов, была представлена на выставке в 2017 году, она осталась грязной и с двумя сломанными пальцами после того, как ее использовали мужчины, которые «обращались с ней как варвары».
Посмотрите также, как дети уже взаимодействуют с новым миром виртуальных помощников, с Алексой, Сири, Кортаной. Как быстро, подражая своим родителям, они овладевают грубыми командами. Машины терпят это и все же отвечают, как бы ни был груб ребенок, как бы ни отсутствовала элементарная вежливость. Многим родителям может показаться знакомой ситуация из поста в блоге венчурного капиталиста Хантера Уока, который стал вирусным в 2016 году, в котором он выражал свои опасения, что Алекса «превращает [его] 2-летнего ребенка в разъяренного засранца».
Сейчас некоторые могут возразить, что это преступления без потерпевших: словесно оскорблять Алексу не хуже, чем ругаться на вашу машину, когда она ломается, или пинать Пеппер не хуже, чем пинать дверь. Но есть важное отличие. Раз уж мы наделяем объект человеческими качествами, то и обращаться с ним нужно как минимум порядочно. Если мы не будем этого делать, опасность заключается в том, что такое поведение нормализуется и перерастет в то, как мы взаимодействуем с другими людьми, что мужчины, которые избивают своих секс-роботов, станут жестокими по отношению к женщинам, с которыми они встречаются, что дети, привыкшие как угодно агрессивно или грубо разговаривать с виртуальным помощником без каких-либо последствий, начнут делать то же самое с учителями или продавцами, или друг с другом. Что «навык» от Алексы, который они усвоят, будет недоброжелательностью.
Если оставить в стороне оскорбительное поведение, возникает вопрос, как бум виртуальных помощников ИИ повлияет на взаимодействие между мужчинами и женщинами, учитывая, что эти умоляющие роботизированные голоса обычно запрограммированы как женские, и, как правило, конечно, инженерами-мужчинами. Откроет ли все это командование Алексой или Сири новые трещины между полами или (что столь же пагубно) зацементирует старые? Я даже не буду вдаваться в подробности того, что именно секс-роботы рискуют нормализовать, особенно теперь, когда владельцы могут программировать своих роботов так, чтобы они были неуверенными, застенчивыми и сексуальными одновременно.
Трудно однозначно сказать, сбудутся ли такие опасения. И на сегодняшний день зарегистрировано меньше случаев жестокости или мизогинии людей по отношению к роботам, в отличие от доброго отношения к ним. Мы слишком рано встали на траекторию цифровой близости, чтобы знать, как это обернется. Все это еще очень ново и находится еще в зачаточном состоянии. Тем не менее
Amazon уже получили жалобы от родителей, чьи дети дурно себя ведут по отношению к окружающим даже вне дома, что подстегивается невозмутимой готовностью Алексы помочь, даже когда с ней грубо обращаются.
Между тем, Организация Объединенных Наций предупредила в 146-страничном отчете за 2019 год, что «связь феминизированных цифровых помощников с реальными женщинами несет в себе риск распространения проблематичных гендерных стереотипов» за счет «упорядочивания односторонних, командных словесных обменов с женщинами» и увековечивание стереотипа о женщинах как о «послушных и стремящихся угодить помощницах», чьи реакции на враждебность и даже домогательства послушны, уклончивы и даже кокетливы. Так, название доклада ООН «Я бы покраснела, если бы могла» происходит от одного из стандартных ответов Сири на «Ты шлюха».
Более того, десятилетия академических исследований в области криминологии указывают на то, что секс-куклы «разжигают», а не способствуют угасанию фантазий, и снижают вероятность того, что их пользователи примут «нет» в качестве ответа от реальных партнеров. «Секс-игрушки для взрослых – это одно, но создание реалистичных роботов, которые не могут сказать “нет” и которых можно безнаказанно использовать и оскорблять, сыграет на руку некоторым мужчинам», – пишет криминалист Ксанте Маллетт.
Роботы учат людей добру
Если существует реальная опасность того, что мы можем скопировать наше взаимодействие с роботами в наших отношениях с другими людьми, обществу нужно будет подумать, как реагировать. Должны ли производители роботов проектировать их таким образом, чтобы они доброжелательно реагировали на нас, например, только в том случае, если мы будем вести себя по-доброму по отношению к ним? Некоторые дизайнеры уже делают шаги в этом направлении. Серхи Сантос,