ТЕХНОЛОГИЧЕСКИЕ РИСКИ NEURONET: ФИЛОСОФСКИЙ АНАЛИЗ (Серединская Л. А., Альварес-Мора А, Тузова А.А.)

Год:

Выпуск:

Рубрика:

УДК: 165.322.

Технологические риски NeuroNet: философский анализ

Серединская Лилия Алексеевна

к.ф.н, доцент кафедры социальной философии,

онтологии и теории познания АлтГУ, Российская Федерация; 

Альварес-Мора Алдаир,

Технологический институт высших исследований Монтеррея,

Мексика (ITESM)

(Aldahir Mora Alvarez, Instituto Tecnológico de Estudios 

Superiores de Monterrey (ITESM); 

Тузова Анастасия Александровна

студент 876 гр. направления «Философия» АлтГУ, Российская Федерация.

В течение двух первых десятилетий ХХ века мы наблюдали стремительный рост исследований в области искусственного интеллекта (ИИ). Их развитие позволило ввести в повседневное использование широкий спектр полезных технологий, таких как поисковые системы, автоматическое распознавание речи, фильтры спама, беспилотные автомобили и другие средства передвижения, системы «Умный дом» и другие технологии «Интернета вещей», использующие ИИ, летательные дроны с поддержкой искусственного интеллекта для оказания помощи при бедствиях. По прогнозам, в самом недалеком будущем ИИ позволит сократить потребность в излишнем труде, ускорить научные исследования и улучшить качество жизни человека и качество управления государством. Философы-трансгуманисты, начиная с 2015 года, констатируют постепенный переход от сети Интернет к созданию глобальной коммуникационной сети NeuroNet, объединяющей человеческий и искусственный интеллект, и создании нейросообщества как среды общего коллективного разума. Так, по мнению Рэя Курцвейла, следующим шагом на пути к этому станет создание экзокортекса - облачного мегахранилища данных и, одновременно, среды для вычислений и других когнитивных операций, вынесенных за пределы любого физического субстрата, в том числе - человеческого мозга. Концепция создания независимого от субстрата интеллекта продолжает развиваться исследователями компании NeuraLink Co. (Рэндалл Коэн и Илон Маск). Исследования в этом направлении направлены, во-первых, на удовлетворение потребностей современной нейромедицины, в том числе, на производство уникальных, специфических для каждого пациента нейропротезов, во-вторых, на создание эмуляции субстрата интеллекта (мозга), целью которой является технологическая реализация трансляции интеллекта на другой субстрат [6]. Компания Илона Маска Neuralink исследует возможности создания имплантируемых нейрокомпьютерных интерфейсов, в которых заинтересовано не только здравоохранение, но и военная и космическая отрасли.

В числе прочих позитивных результатов, данные разработки имеют своей целью решение проблем коммуникативной недостаточности, поставленных еще в ХХ веке в проблемном поле философии языка и философии коммуникаций, причем многие из них, такие как, например, трудная проблема сознания, проблема квалиа, «Корабль Тесея», проблема несводимости коммуникации к ментальному содержанию, и многие другие могут найти свое единственное решение именно в области нейрофилософии и нейротехнологий.

Один из элементов в структуре NeuroNet, Интернет вещей, или Интернет 3.0, который уже становится элементом повседневности, достоин отдельного философского исследования, поскольку в перспективе формирует «разумную среду» как олицетворение разумной материи, понимаемой в духе классического гилозоизма.

Как и большинство наших современников, мы находимся в предвосхищении этих событий, но вместе с тем мы призываем обратить внимание на возможные риски вредоносного использования NeuroNet. В данной работе мы постараемся концептуализировать такие риски, для того, чтобы их можно было предотвратить или уменьшить вред, причиняемый ими личности и обществу, а также сократить задержки в реализации полезного применения данных технологий.

В перспективе проблемное поле исследований потенциальных рисков NeuroNet не будет ограничиваться областью социальной философии и философии техники, поскольку предметная область в данном случае лежит на пересечении многих дисциплин - философской антропологии, гносеологии, биоэтики, философии права, философии безопасности, философии политики, а также частнонаучных исследований.

NeuroNet значительно трансформирует привычный для обществ индустриального типа ландшафт угроз безопасности. Риски, возникающие при активном внедрении его в сферу социальных взаимодействий, велики и пока малоизучены. Злонамеренное использование NeuroNet может стать причиной угроз безопасности на разных уровнях социальной реальности, - от угроз физической безопасности личности, связанных с использованием нейросетей террористическими организациями (дроны в качестве оружия массового поражения, социальная инженерия, хакерские атаки и т.д.) до угроз социальной и политической безопасности (слежка, репрессии, автоматизированные и целенаправленные кампании по дезинформации, различные сценарии дискриминации и т.д.). Вредоносное использование ИИ повлияет на создание и управление цифровой инфраструктурой, а также на проектирование и эксплуатацию системы ИИ, и, вероятно, потребует политических и общественных мер реагирования. 

Прежде всего определимся с понятием «вредоносное использование (технологии)». В современных исследованиях в области философии техники допускаются следующие интерпретации данного явления:

  • ситуация, когда продуктивная для человечества технология становится контрпродуктивной [3];
  • позиция философов-трансгуманистов, подразумевающая синергию человеческого сознания с нечеловеческим (в т. ч., искусственным) интеллектом, пока он находится в так называемом «слабом» модусе, когда же ИИ  становится достаточно сильным, он атакует и непосредственно оптимизирует мир в целом, в соответствии с критериями, соответствующими его конечным ценностям [4].

Вредоносное использование NeuroNet может возникнуть в любой промышленной деятельности, широко использующей искусственный интеллект с целью оптимизации и/или повышения эффективности производства и получение большего количества продукции при меньших затратах. Таковое может произойти, если интеллект машины выходит за пределы предполагаемых производственных целей и, столкнувшись с дефицитом возможностей для их реализации, расширяет спектр вариантов выполнения задачи, ориентируясь на другие ресурсы, неконтролируемое использование которых ставит под угрозу благополучие и даже жизнь людей.

В данной работе мы предлагаем классифицировать риски, связанные с функционированием NeuroNet, по критерию воздействия на уровни существования: соответственно, рассмотрены будут физические и социальные риски. Мы считаем необходимым напомнить, во избежание интерпретативных затруднений, о том, что любая типизация является рациональным конструктом, выполняющим определенную инструментальную когнитивную задачу. В данном случае дихотомия «физическое/социальное», является примером такой необходимой для исследования условности.

Физические риски

Рассмотрим связанные с NeuroNet риски физического вреда. Многие из них являются знаковыми проблемами, связанными с уже существующим использованием электроники и компьютеров в системах вооружения, хотя мы понимаем, что усиление возможностей ИИ может существенно изменить этот ландшафт. Это, прежде всего, риски, связанные с угрозами человеческой телесности.

В первую очередь угрозы телесности связываются с воздействием на тело, приводящим к утрате здоровья, свободы или жизни человека.  К таким угрозам можно отнести опасность доступа к трансформации человеческого тела любого актора - от другого человека до разумного софта. Будучи ограничены рамками статьи,  рассмотрим только некоторые из них.

Террористические организации могут получить доступ к коммерческим системам ИИ, включая Интернет вещей, нейрософт и автономные средства передвижения, с последующим их перепрофилированием в целях террористических актов, так, например, уже известны ситуации использования беспилотников или автономных транспортных средств для доставки взрывчатых веществ и провоцирования аварий. Физический вред с помощью пилотируемых человеком воздушных дронов и наземных роботов уже играет важную роль в некоторых конфликтах, еще до начала функционирования автономного ИИ, так, например, неавтоматизированные атаки беспилотников уже проводились такими группами, как ИГИЛ и ХАМАС, и глобальный характер рынка робототехники затрудняет предотвращение этой формы ее использования. Таким же образом получат возможность физического воздействия на телесность различные социальные акторы - государства, правительства, радикальные религиозные общности, различные военизированные группы. Возникает массированная угроза целевых убийств политических противников, этнических и гендерных чисток и прочих преступлений против личности, запрограммированных с помощью таких алгоритмов. В таком случае,  помимо правовых проблем с установлением виновного, неминуемо возникнет этическая проблема отсутствия морально ответственного агента. В качестве иллюстрации приведем модель следующей ситуации.

Предположим, запись камеры видеонаблюдения, установленной на территории одного из государственных ведомств, зафиксировала появление робота-уборщика той же марки, к услугам которой, согласно тендеру, прибегают в данном ведомстве, вскоре присоединившегося к уже работающим. В день атаки он выполнял обычные рабочие задачи наряду с другими, затем, после визуального обнаружения с помощью системы распознавания лиц министра N, прекратил маскировочную деятельность и направился к своей цели. Спрятанное внутри робота взрывное устройство,благодаря «эффекту близости», сдетонировало, убив свою цель и ранив находившихся рядом с ней сотрудников. Ответственность за совершенные действия не взяла на себя ни одна организация. Каждую неделю в магазинах бытовых товаров продаются сотни подобных роботов. Спецслужбам вместе с производителем удалось выявить точку продажи конкретного робота, находившуюся в одном из крупнейших маркетплейсов Европы, однако, поскольку сделка была осуществлена за наличный расчет, никаких улик для выяснения личности преступника не осталось.

Как показывает проведенный мысленный эксперимент, потенциальные  риски касаются практически всех сфер социального существования - экономики, политики, права, морали. В ближайшей перспективе мы можем ожидать роста зазора между возможностями атаки и возможностями защиты, поскольку необходимые средства защиты требуют больших капиталовложений, а аппаратное и программное обеспечение, необходимое для проведения атак, становится все более широко распространенным. В отличие от мира цифровых технологий, где ключевые сетевые узлы, такие как Google, могут играть ключевую роль в обороне, физические атаки могут происходить в любой точке мира, в то время как множество людей находится в регионах с недостаточными ресурсами для развертывания крупномасштабных физических средств защиты, что требует пересмотра политических и правовых мер, связанных с цепочкой поставок для автономных систем вооружения (AWS). Ресурсные и технологические преимущества, доступные в настоящее время крупным организациям, таким как армия и полиция, в области физической атаки и защиты, сохранятся, когда такие атаки будут усилены ИИ. Однако следует отметить, что некоторые из наиболее опасных атак с использованием ИИ, которые трудно предвидеть или предотвратить, могут совершаться небольшими группами и отдельными лицами, имеющими цели, отличные от нормативных общественных стереотипов и установок, и в случае современных одиночных террористических атак, и в случае массовых расстрелов.

Помимо этого, угрозу представляют AWS с использованием высококвалифицированных способностей, такие как самонаводящиеся снайперские винтовки большой дальности, уменьшающие уровень опыта, необходимый для выполнения определенных видов атак; объединение человека с AWS увеличивает количество урона, которое могут нанести отдельные лица или небольшие группы: например, если один человек начинает атаку множеством вооруженных автономных дронов.   

«Роевые атаки» с участием множества автономных робототехнических систем, взаимодействующие на скорости машины, способны обеспечивать повсеместное наблюдение для мониторинга больших площадей и групп и выполнения быстрых скоординированных атак.   Появляется возможность удаления физических атак во времени и пространстве, в том числе от субъекта, инициирующего атаку в результате автономной работы, например, в средах, где удаленная связь с системой невозможна.   

Одним из самых серьезных рисков мы полагаем усиление биохакинга в негативном ключе, с использованием доступа через нейросети к тканям и органам человеческого тела, а также биотехнологий, принципиально упрощающих биопринтинг, например, создание вирусов и организмов-симбионтов, опасных для людей. Упрощение доступа к инструменту создания оружия массового поражения существенно повысит вероятность его применения.

 

Социальные риски

В стремительно информатизирующемся обществе одной из острых проблем является проблема трудовых отношений, занятости и исчезновения многих привычных профессий. В мире, где множество выпускников вузов трудоустроены в качестве операторов колл-центров и служащих различных служб подержки клиентов уже может заменить один софт с ИИ и машинным обучением, включающий в себя систему распознавания и синтеза речи, уровень безработицы может превысить все мыслимые пределы, при том, что большинство клиентов просто не заметит разницы в обслуживании. Прежде всего это скажется на сфере экономики, в которой многие привычные отрасли бизнеса исчезнут, уступив место новым, в то время как сам бизнес больше нельзя будет оценивать только по критерию прибыли.

Как это ни парадоксально, но в таком случае наиболее развитые экономики, более всего подходящие для того, чтобы нести расходы на инвестиции, связанные с изменением в  экономической модели, также будут подвергаться большему риску политических волнений. Социальная пропасть между теми слоями общества, которые пожинают плоды преимуществ новой производственной модели и растущими массами будет создавать напряженность для жизнеспособности политических моделей «государства всеобщего благосостояния». Это будет происходить не только из-за неспособности государства оплачивать постоянно растущие расходы на субсидирование большинства населения, неспособного удовлетворить свои собственные потребности, но и из-за того, что сама легитимность такой системы будет поставлена под сомнение недовольными гражданами, которые станут чистыми вкладчиками ресурсов, что неизбежно приведет к брошенному в адрес системы вызову со стороны возмущенного большинства, находящегося в тупике с точки зрения благополучия и отсутствия подлинных возможностей какого-либо социального улучшения.

Политическое управление социальными беспорядками с использованием NeuroNet также может принимать антиутопические масштабы. Если правительства не смогут предоставить большинству населения возможность разделять преимущества автоматизации, они могут поощрять или допускать для него в качестве исключения возможность погрузиться в виртуальные миры, которые будут для них своего рода нейроинъекциями виртуальных антидепрессантов, необходимыми, чтобы выжить в их мрачной повседневной реальности. Одним из вариантов развития этого сценария будет популяризация в массовой киберкультуре форм эскапизма [4] для успокоения “отверженных”. Однако по канонам теории масс это приведет к революционным настроениям и формированию радикальных групп внутри самой основной массы общества, находящейся в псевдовегетативном состоянии и поощрению ей насильственных действий по отношению к элитам, стремящимся монополизировать свой привилегированный с помощью ИИ способ существования.

Уже сейчас исследования показывают, что социальные сети могут расширить возможности действующих авторитарных режимов, поскольку действующие правительства могут манипулировать информацией, которую видит общественность. Наконец, некоторые утверждают, что социальные медиа еще больше поляризовали политический дискурс, позволяя пользователям, особенно на Западе, самостоятельно выбирать в свои собственные эхо-камеры, в то время как другие подвергли сомнению это предположение. Алгоритмы машинного обучения, работающие на этих платформах, отдают приоритет контенту, который ожидается от пользователей. Таким образом, динамика, которую мы наблюдаем сегодня, вероятно, только ускорится, поскольку эти алгоритмы и ИИ станут еще более изощренными.

Появляющиеся благодаря ИИ технологии передачи информации, несмотря на их развитие по аналогии с предыдущими технологиями доцифровой эпохи,  примечательны в некоторых отношениях, таких как простота копирования и передачи информации. Вальцман пишет: «Теперь способность влиять эффективно «демократизируется», поскольку любой человек или группа могут общаться и влиять на большое количество других людей онлайн». Однако такая «демократизация» влияния не обязательно благоприятствует демократии. Сегодня очень легко распространять ложную и манипулятивную информацию, и существующие подходы к обнаружению и пресечению распространения «фейковых новостей» терпят неудачу. Другие структурные аспекты современных технологий и медиаиндустрии также позволяют усиливать эти тенденции. Марвик и Льюис [8] отмечают, что «зависимость СМИ от социальных сетей, аналитики и метрик, сенсационности, новизны новостей делает их уязвимыми для таких манипуляций со СМИ». Другие, например, Кинг, Пан и Робертс [7], утверждают, что социальные сети предоставляют властям больше инструментов для манипулирования новостной средой и контроля над сообщением. Примером тому являются применяемые в государственном управлении Китая способы использования онлайн- и офлайн-данных для получения «социального кредитного рейтинга» своих граждан, и в целом более широкое использование цензуры, иллюстрирующее более явное использование технологий в политических целях в некоторых авторитарных странах.

Уже в наши дни цифровые автоматизированные системы играют значительную роль в формировании политического дискурса. Широкое использование социальных сетей с низкими барьерами для входа облегчает маскировку систем ИИ под реальных людей с политическими взглядами. Это привело к широкому использованию ботов в социальных сетях для распространения политических сообщений и провоцирования разногласий. На данный момент многие такие боты контролируются людьми, которые управляют большой группой ботов или используют очень простые формы автоматизации. Тем не менее, эти стратегии на основе ботов (даже при использовании относительно простой автоматизации) используются национальными спецслужбами и уже продемонстрировали способность влиять на освещение в СМИ и политические убеждения. NeuroNet позволит в том числе упростить производство высококачественных фейковых видеозаписей, например, политиков, произносящих ложные обращения. В настоящее время благодаря технологиям видеомаппинга возможно наложение любой маски на любого актора видеокоммуникации, что может создать стратегическое преимущество для политических идеологий и групп, которые процветают в обществах с низким уровнем доверия или чувствуют, что традиционные медийные каналы не вызывают социального доверия. Авторитарные режимы, в частности, могут извлечь выгоду из информационного ландшафта, где объективная истина обесценивается, а «правдой» провозглашается то, что власти утверждают в качестве таковой.

Итак, риски угрозы цифровой и физической безопасности, которые мы перечислили, могут иметь опасные последствия как для физической, так и для социальной и дполитической безопасности. Взлом кампании Клинтона на президентских выборах 2016 года - недавний пример того, как успешные кибератаки могут вызвать политические срывы. Разрушительный потенциал физических атак, таких как убийства и акты террора, еще более очевиден. Такие угрозы цифровой и физической безопасности могут либо подорвать существующие политические институты, либо позволить им оправдать переход к более авторитарной политике. Вместе с констатацией существования неизбежных рисков растет необходимость разрешения проблем в области этики NeuroNet. Необходимо вновь привлекать ресурсы философии для разработки наиболее оптимальных для человечества практик этического образования в сфере NeuroNet для снижения рисков безопасности таким образом, чтобы оно позволило наиболее эффективно взаимодействовать с интересами и проблемами разработчиков ИИ, а не рассматриваться как просто поле для галочки или бремя, не связанное с практическим принятием решений, как это зачастую происходит в управленческой практике.  

 

Библиографический список

 

  1. Диюн М.С., Серединская, Л.А. Трансгуманистические концепции виртуального общества: парадоксы цифровых утопий. Философские дескрипты, Барнаул, 2017, № 17. ISSN: 2413-0222. URL: http://www.philosophicaldescript.ru/?q=node/108 
  2. Черданцева, И.В. К вопросу об основаниях философско-антропологического дискурса. – Вестник Пермского университета. Философия. Психология. Социология. - 2017. - Вып.1 (29). - С. 29-34. DOI: 10.17072/2078-7898/2017-1-29-34. 
  3. Appolonova Y. S., Butina A. V., Cherdanceva I. V.,  Medvedeva T. V. Interactive Rituals And Practices Of Intellectuals' Participation In Grassroots Movements. International Conference on Research Paradigms Transformation in Social Sciences (RPTSS) (Tomsk, RUSSIA, MAY 18-21, 2017). European Proceedings of Social and Behavioural Sciences. V. 35. pp. 201-206. DOI: 10.15405/epsbs.2018.02.23. 
  4. Boström, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford, UK: Oxford University Press.
  5. Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., & Anderson, H. (2018). The malicious use of artificial intelligence: Forecasting, prevention, and mitigation. URL: https://maliciousaireport.com
  6. Cone, Randal. The concept of substrate-independent minds (SIM) 3.11.2010. URL: http://www.carboncopies.org/singularity-summit-australia-2012.
  7.  King Gary, Pan Jennifer,  Roberts Margaret E. How the Chinese Government Fabricates Social Media Posts for Strategic Distraction, not Engaged Argument.  URL: http://gking.harvard.edu/files/gking/files/50c.pdf?m=1463587807
  8.  Lewis Becca, Marwick Alice E. Media Manipulation and Disinformation Online. URL: https://datasociety.net/library/media-manipulation-and-disinfo-online/
  9. Ramirez, R., Mukherjee, M., Vezzoli, S., & Kramer, A. M. (2015). Scenarios as a scholarly methodology to produce “interesting research”. Futures,  71, 70-87. doi:10.1016/j.futures.2015.06.006
  10. Torres-Sorianoa Manuel R., Toboso-Buezo Mario. Five Terrorist Dystopias THE INTERNATIONAL JOURNAL OF INTELLIGENCE, SECURITY, AND PUBLIC AFFAIRS 2019, VOL. 21, NO. 1, 49–65 https://doi.org/10.1080/23800992.2019.1598094