УДК 17.026
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И СУПЕРИНТЕЛЛЕКТ: ЭКЗИСТЕНЦИАЛЬНЫЕ РИСКИ
Диюн М.С., Серединская Л.А.
Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования «Алтайский государственный университет». Адрес: 656049, Россия. г. Барнаул. пр-т Ленина, 61а.
Магистрант по направлению подготовки «Философия» Алтайского государственного университета.
Доцент кафедры социальной философии, онтологии и теории познания Алтайского государственного университета, кандидат философских наук.
Аннотация. Можно предположить, что знакомый нам мир в ближайшие десятилетия кардинально изменится, причем источником трансформаций будут такие новые технологии, как суперинтеллект и нанотехнологии. Экспериментальное образцы суперразума, очевидно, будут представлять собой нечеткий нейронный искусственный интеллект, построенный на принципах, отражающих не только основные научные подходы, но и моделирующих разные стороны поведения человека (зрение, слух, мышление, движение и пр.). Необходимо отметить, что имеются вполне определенные основания для появления в будущем интеллектуальных систем типа суперинтеллекта, построенного на аналогии между распознаванием и мышлением. Будущий суперинтеллект, построенный на аналогии между распознаванием системами искусственного интеллекта и человеческим мышлением, будет представлять собой имитацию мыслительной деятельности человека. На сегодняшний день искусственный интеллект мыслится философами и учёными лишь инструментом для повышения качества человеческой жизни. Однако экзистенциальные риски от сосуществования сверхразума, искусственного интеллекта и человека многократно возрастают.
Ключевые слова: трансгуманизм, постчеловек, трансчеловек, будущее, искусственный интеллект, суперинтеллект.
ARTIFICIAL INTELLIGENCE AND SUPERINTELLECT: EXISTENTIAL RISKS
Dijun М.S., Seredinskaja L.A.
Master in Philosophy, Altay State University.
PhD of Philosophy, professor of department of social philosophy, ontology and theory of knowledge, Altay State University.
The Altay State University. 656049, Russia, Barnaul, 61A Lenin Avenue.
Abstract. We can assume that the world we are familiar with will change dramatically in the coming decades, with new technologies such as superintelligence and nanotechnology being the source of transformations. The experimental samples of the supermind, obviously, will be a fuzzy neural artificial intelligence, built on principles that reflect not only the basic scientific approaches, but also models different aspects of human behavior (sight, hearing, thinking, movement, etc.). It should be noted that there are quite definite grounds for the appearance in the future of intellectual systems of the superintelligence type, built on the analogy between recognition and thinking. The future superintelligence, built on the analogy between recognizing artificial intelligence systems and human thinking, will be an imitation of a person's thinking activity. To date, artificial intelligence is thought of by philosophers and scientists as a tool for improving the quality of human life. However, the existential risks from the coexistence of the supermind, artificial intelligence and man multiply.
Key words: transhumanism, post-human, transhuman, transperson, future, artificial intelligence, supermind.
В книге «Искусственный интеллект. Этапы. Угрозы. Стратегии» Ника Бострома сконструирован пессимистичный сценарий развития искусственного интеллекта. Появление искусственного интеллекта равного человеческому интеллекту станет путём к созданию сверхинтеллекта. По мнению норвежского философа, сверхразум будет одним из первых изобретений искусственного интеллекта. Дальше режиссёр не требуется, сверхразум, способный к самообучению и воспроизведению еще более сложных систем, начнёт контролировать производство и распространение конкурирующих ИИ, предаваться агрессивной мальтузианской гонке с другими разумными агентами на лоне Искусственной Природы. Экзистенциальные риски от сосуществования сверхразума, искусственного интеллекта и человека многократно возрастают. Предупреждение Ника Бострома гласит: сверхинтеллект, способный к обучению, будет эффективнее и быстрее своих создателей. Следовательно, не привив ему человеческих ценностей, можно столкнуться с угрозой уничтожения человеческой цивилизации. Сверхразум, регулирующий дальнейшее производство умных машин, будет успешно препятствовать попыткам людей скорректировать его работу или помешать ему.
Уже сегодня системы искусственного интеллекта обладают «ограниченной рациональностью» — способны выбирать оптимальные стратегии для достижения приемлемых результатов. Каким будет прогноз, если эти системы научатся изменять их и менять иерархии своих целей?
Основным аргументом Бострома в поддержку своих опасений является стремление к оптимизации. Если сверхразуму потребуется решить теорему Римана и для этого ему нужно будет превратить половину живых существ в вычислительные машины, то он это сделает не колеблясь, как утверждает Бостром. Если перед сверхинтеллектом будет стоять задача вылечить СПИД на всей планете, то он это сделает, даже если для этого придётся уничтожить всех людей не больных этим синдромом. Проблема контроля над сверхинтеллектом ключевая в разработке систем искусственного интеллекта, по мнению философа. Не так уж и важно, какая из наук приведёт нас к созданию искусственного интеллекта. Будут ли это программисты, представившие программу, способную думать, или же нейроконструкторы, воссоздавшие человеческий мозг способный к функционированию. Релевантно то, что случится это гораздо быстрее, чем мы можем себе представить. Опрошенные норвежским философом эксперты в большинстве своём прогнозируют создание искусственного интеллекта способного мыслить к 2040 или 2050 году.
«Искусственный интеллект уже сегодня превосходит человеческий во многих областях. Так, на протяжении многих лет разные виды искусственного интеллекта побеждают чемпионов всевозможных игровых турниров, будь то шахматы или покер. Такие достижения могут и не казаться особенно впечатляющими, но лишь потому, что наши требования к удивительному быстро адаптируются к прогрессу» – пишет Ник Бостром [6]. В научной среде в начале 21-го века этот сценарий получил название «парадигмы Бострома».
Алан Тьюринг в своей работе «Способна ли цифровая машина мыслить?» пишет: «Предположим, что нам удастся создать мыслящие машины. Это произведет резонанс и встретит сопротивление со стороны интеллектуалов и ученых, которые будут волноваться за свое положение и работу. И не зря. Потому, что при достижении машинами человеческого уровня мышления, людям придется очень постараться, чтобы не отстать от машин в разумной деятельности. Также представляется вполне вероятным способность разумной машины создавать свое подобие или еще более разумную машину. Таким, образом, можно ожидать, что однажды разумные машину могут взять под контроль разумное человечество» [6].
Человек вступил в настолько тесный контакт с машиной, что граница между искусственным и естественным постепенно исчезает. В данных условиях опасность глобализации, по мнению многих мыслителей, заключается в том, что человек утрачивает своеобразие своей личности. Единые технологии во всём мире формируют единого человека, стремящегося к ещё большему единству с этим самым миром и его технологиями. Постепенное сближение человека с машиной становится предметом анализа Донны Харауэй: она издаёт «Манифест киборга» (“A Cyborg Manifesto: Science, Technology, and Socialist-Feminism in the Late Twentieth Century”), где утверждает, что мы больше не можем воспринимать самих себя как человеческие существа, было бы правильнее провозгласить себя киборгами. Киборг – это гибрид машины и человека, конденсированный образ нашего воображения и материальной реальности. Донна Харауэй пытается представить себе бесполый мир, который, возможно, будет миром без начала, но также и без конца. Она стремится избавиться от любых противоречий и конфликтов и лишает киборгов даже гендерных различий. Автор считает, что преодоление стереотипов и противостояний приведёт к признанию многообразия в этом новом мире. Киборги не могут представлять какую-либо угрозу для нас, потому что мы сами становимся ими, нет никакого противостояния между человеком и машиной, по мнению автора манифеста, есть только единение: “The machine is us, our processes, an aspect of our embodiment. We can be responsible for our machines; they do not dominate or threaten us. We are responsible for boundaries; we are they” [9, p.77]. То есть, машина не может быть опасна для человека, так как он сам частично становится машиной? Тогда возникает вопрос: а можно ли, став частично машиной, сохранить в себе человеческие качества? Технологии, действительно, размывают границы и стирают различия, становятся неотъемлемой частью повседневной жизни человека, и в этом смысле киборг в текстах Д. Харауэй символизирует сближение человека и машины. Автор манифеста считает, что развитие технологий может способствовать преодолению бинарных оппозиций гуманизма и таким образом привести к справедливости в мире и уважению по отношению к другому [9]. «Манифест...» Д. Харауэй, скорее всего, можно рассматривать как свидетельство несовершенства и противоречия гуманистической системы взглядов. Н. Бадмингтон включает текст Д. Харауэй в свой «постгуманистический» сборник, однако, на наш взгляд, «Манифест...» Д. Харауэй во многом выражает идеи трансгуманизма, который подвергается нами исследованию.
Способность к самообучению превратит искусственный интеллект в суперинтеллект.
По мнению Бострома, в самом начале искусственный интеллект будет похожим на мозг ребенка. И учиться он сможет как ребенок. Люди не будут больше стараться начинить как можно больше информации в программу, они научат её саму познавать окружающий мир. Постоянное самосовершенствование сделает возможным существование суперинтеллекта. «Для нас важно создать искусственный интеллект, у которого хватит ума учиться на своих ошибках. Он будет способен бесконечно совершенствовать себя. Первая версия сможет создать вторую, которая будет лучше, а вторая, будучи умнее оригинала, создаст ещё более продвинутую третью и так далее. В определённых условиях такой процесс самосовершенствования может повторяться до тех пор, пока не будет достигнут интеллектуальный взрыв – момент, когда интеллектуальный уровень системы подскочит за короткое время с относительно скромного уровня до уровня суперинтеллекта» – пишет в своём труде Ник Бостром [6].
Недавние успехи в машинном обучении привлекли пристальное внимание к этому вопросу даже философов, которые забили тревогу и откровенно высказывают опасения по поводу развития искусственного интеллекта.
Мозг человека является самым близким аналогом того, что происходит в процессе машинного обучения: информационные системы, подвергающиеся машинному обучению, называются нейронные сети и состоят из отдельных слоев, каждый из которых отвечает за обработку ограниченного участка информации. Нижние слои могут принимать информацию, а слои верхних уровней обрабатывают информацию, передают её и используют для собственной тренировки. Это схоже с тем, что происходит в человеческом мозге в процессе обучения.
Уже сейчас нейронные сети умеют различать человеческую речь и лица лучше человека. На первый взгляд это кажется безобидным, но это не так. Безобидной является победа компьютера над гроссмейстером в шахматах, ведь у человека нет специальных участков коры головного мозга для решения шахматных задач. Однако распознавание и идентификация лиц это уже особая зона коры мозга, которая эволюционно развивалась, и отвечает за выживание. И в этой области искусственный интеллект лучше человека уже сейчас. Например, искусственный интеллект осмысливает учебную информацию категорично и абстрактно: различает изображения белых и чёрных собак, доберманов, догов, щенков, взрослых собак и относит это всё к классу «собаки». Можно утверждать, что данные способности искусственного интеллекта (генерализация/идентификация/классификация) говорят о простейшей разумной деятельности информационной системы.
Можно предположить существование двух подходов к обучению искусственного интеллекта:
1. Механистический: классификация/категоризация – это, безусловно, один из признаков разумного агента. Но только один из. Это полезный и замечательный признак, но не основной. Для настоящего интеллекта требуется нечто большее, чем умение решать задачки — желание эти задачки решать. Различать изображения собак и называть это собакой это важно, спору нет. Настоящему ИИ должно быть присуще в первую очередь желание, мотивационный драйв решать задачи и доказывать теоремы. И создание разумной желающей информационной системы это нечто большее, чем умение сверхбыстро и эффективно решать даже очень сложные задачи по указке инженера этой системы. А желания умной желающей машины могут отличаться от целей человека-творца. Этот подход импонирует Нику Бострому.
2. Нейробиологический: большая часть головного мозга состоит из одних и тех же или слегка различающихся клеток, которые развились в ходе эволюции. Если мы сможем понять, как работает один участок мозг, то понять, как работают другие участки, будет намного проще. Мотивационные процессы человеческой разумной деятельности проходят в тех же или близких участках коры головного мозга, что и восприятие/категоризация/классификация информации. Если ученые считают, что информационные системы для восприятия-категоризации-классификации можно воспроизвести на примере человеческого мозга, то для воспроизведения мотивационных разумных систем ученым будет достаточно немного изменить имеющиеся образцы нейросетей для категоризации/классификации. Такие системы не будут похожи на тотально мотивированные и сфокусированные на цели прототипы (человеческий мозг тоже мало походит на такие системы). Скорее всего, получится куча мала из разносторонних перцепций, желаний и мотиваций, как это обычно случается в человеческих головах. Такой подход подвергает сомнению тотальную власть человека-создателя над ИИ, ведь запрограммированные мотивы/цели у машины могут не возникнуть или будут значительно изменены.
Сделаем небольшое биологическое отступление. Эволюционную историю биологического подхода трудно проследить и подтвердить с большой точностью. Разделение между когнитивными центрами восприятия/обработки сенсорной информации (префронтальный кортекс) и центрами памяти/эмоций/поведения (гипоталамус и гиппокампы) произошло на ранних этапах развития позвоночных или еще раньше. Тем не менее, эти разные системы сохранили связи и вмешиваются в функционал друг друга. Одни части кортекса завязаны на гипоталамус и принадлежат лимбической системе. Другие части таламуса (мозга ящерицы, лимбической системы) участвуют в обработке информации (colliculi).
Складывается впечатление, что участки мозга, ответственные за сенсорное восприятие и мотивационно-эмоциональные зоны присутствуют в разных частях коры. Более того, префронтальный кортекс, который считается колыбелью человеческой личности (высшая когнитивная деятельность, оценки, планирование и т.д.), вероятно развился из кортекса первых рыб, из единственного мозга этих рыб, который, в свою очередь, произошел из тех нескольких сотен нейронов, которые отвечали за восприятие и обработку сенсорной информации у первых червей.
Ни анатомия, ни эволюция не предполагают сугубо автономного разделения между восприятием, обработкой и мотивацией разумной деятельности. Одни и те же системы могут воспринимать информацию в одном месте, и, с небольшими изменениями, обрабатывать ее и мотивировать дальнейшую деятельность уже в других участках мозга. Рискуя погрузиться в мистику, скажем только что когнитивные искажения (обработка информации) и визуальные иллюзии (перцепции) имеют больше общего, чем считалось ранее (еще одно упрощение: эти искажения происходят в технически идентичных областях, полях Бродмана).
Что будет дальше?
Предположим, что у сверхразума появятся свои цели и потребности. Естественно, различие в образ мышления искусственного интеллекта и человека не даёт предугадать, как именно будет работать мотивация сверхразума. Но, логично предположить, что для достижения целей, какие бы они у него ни были, ему потребуются ресурсы. Вот, что пишет об этом Ник Бостром: «Искусственный интеллект может быть менее человечен, чем пришелец. Нет ничего удивительного, что любого разумного пришельца могут побуждать к действию такие вещи, как голод, температура, травмы, болезни, угроза жизни или желание завести потомство. Искусственный интеллект, по сути, ничто из перечисленного интересовать не будет. Можно представить существование искусственного интеллекта, чьей единственной конечной целью будет пересчитать все песчинки на острове Боракай или найти десятичное представление числа» [6].
Воплотится ли в жизнь попытка использования людей против их воли суперинтеллектом? Мыслители трансгуманизма этой попытки не исключают.
Трансгуманисты предполагают,что для получения доступа к необходимым ресурсам, сверхразум будет искать посредника. По мнению Ника Бострома, отсутствие подключения к сети или невозможность проявлять физическую активность не помешают суперинтеллекту добиться своих целей. Даже достигнув технологической зрелости, то есть, создав все возможные технологии, мы всё равно останемся людьми. Это и является главной слабостью человечества, по мнению представителей трансгуманизма. Бостром комментирует это так: «Человек – самая ненадёжная система. Сегодня хакеры часто обращаются к принципам социальной инженерии с целью получения доступа к чужому компьютеру. А если хакером-манипулятором окажется суперинтеллект, то можно предположить, что он с лёгкостью найдёт себе сообщника или же просто станет использовать нас против нашей воли как свои руки и ноги» [6].
На сегодняшний день искусственный интеллект мыслится философами и учёными лишь инструментом для повышения качества человеческой жизни. Американский философ Джон Сёрль считает практически невозможным появление самосознания у машин. Для этого, по его мнению, необходимо наличие физико-химических процессов, схожих с теми, что протекают в человеческом мозге. Но Ник Бостром полагает, что превращение суперинтеллекта из инструмента в полноценное существо со своими потребностями лишь вопрос времени. И забота о сохранении человеческой цивилизации может оказаться не в числе его потребностей. Люди могут оказаться лишь помехой на пути сверхразума остаться единственным интеллектом. Вот что Бостром пишет об этом: «Человек сам по себе представляет полезный ресурс (удобно сгруппированные атомы), а его выживание и процветание зависит от других ресурсов. Результатом развития искусственного интеллекта, нуждающегося в этих ресурсах, может легко стать исчезновение человечества. Так настанет время технологически высокоразвитого общества, включающего в себя множество сложных структур, многие из которых будут умнее всего, что есть сегодня на планете. Это будет время экономических и технологических чудес. Но никого, кто бы мог этим воспользоваться, не останется. На Земле воцарится Диснейленд, в котором больше не будет детей» [6].
А что, если представить себе искусственную мораль, выработанную суперинтеллектом на основе тех данных, которые ему предоставляют ученые?
Категоризация / классификация – это основа обучения морали. Возможно, это и есть мораль. Возьмем к примеру ментальные категории: все знают, что такое птица, но с точным определением «птицы» немного сложнее.
Все помнят, как возникают эти категории. Немного обучения. Мать показывает ребенку на курицу и говорит «птица», через пару лет ребенок узнает, что летучая мышь это «не птица» и вот ваш мозг свободно оперирует категориями/классами и сложными абстракциями, а через еще через пару тысяч лет приходит Дарвин и говорит, что есть такой класс позвоночных «птицы», что очень хорошо, но вы и без него это знали [5].
Люди обучаются этике и морали похожим образом. Когда мы кусаем кого-то, мать/отец/учитель/священник/шаман говорят нам, что это «плохо»; когда мы делимся пирожным, нам говорят, что это «хорошо». На основе работы с такими примерами информационная система оперирует категориями и классами, даже если не может дать точные определения этих категорий и классов [5].
Мораль возникает во время тренировки ИИ на обучающей информации. Бостром же считает, что мораль / этика ИИ – это отдельный модуль или массив обучающей информации.
Обычный бостромовский контраргумент — вероятность того, что ИИ сделает неверные выводы из тренировочной информации и выработает опасную для людей систему ценностей. Например, ИИ может решить, что все вещи, которые делают человека счастливым – хороши, начнет оптимизировать по максимуму: станет делать человеку инъекции героина все время, чтобы человек оставался счастливым.
Неизвестно почему, но человеческая оценка поступков не работает так прямолинейно, и в редких случаях доводит какую-то идею до критической массы. Может быть, так происходит из-за особенностей классификации/категоризации, или в конечном решении участвуют посторонние факторы, а не только дихотомия «хорошо-плохо». Это может стать интересным заданием для разработчиков ИИ – определить, что именно заставляет информационные системы классифицировать информацию подобно человеку.
Вообще, сложно представить, что у человека есть конкретный моральный ген, моральный участок коры головного мозга, какое-то моральное приспособление. И вряд ли этика и мораль – это биологические, эволюционные конструкты, нейробиологические механизмы; скорее всего, этика и мораль – это необходимые условия просоциального поведения. Этика похожа на крышу дома, которая естественно вырастает вследствие правильной работы низших отделов, обучать искусственный интеллект этике и морали невозможно в отрыве от обычного научения (если мы говорим об ИИ на основе нейронных сетей, которые повторяют структуры головного мозга).
Мотивационная сфера человека работает на дофаминах и системе вознаграждения. Остается надеяться, что близкую человеческой способность классификации можно реализовать в моделях ИИ. Люди могут желать секса без стремления оплодотворять все живое и неживое пока планета не взорвется. ИИ на основе человеческой модели восприятия и классификации данных, будет хотеть решать задачи без маниакального желания подчинить все остальные цели этому желанию. Далеко не всегда и не все люди являются бездумными оптимизаторами: людям свойственно иерархическое целеполагание, все понимают, что быть моральным выгодно в долгосрочной перспективе. Значит и сверхинтеллект, вероятнее всего, не станет роковым для человечества оптимизатором-терминатором.
Самое распространенное предположение (которое поддерживает Ник Бостром): искусственный интеллект будет воплощением чистой логики, напрочь лишенным подобия эмоций/сомнений/колебаний, а нам придется сдерживать этого математического голема. Если вспомнить такие примеры из человеческой выборки, то эти опасения становятся немного преувеличенными — большинство людей, у которых снижена эмпатия, у которых плохо с этикой и моралью, демонстрируют асоциальное поведение, им сложно обучаться, адаптироваться, просто потому, что им сложно понимать других людей (аутисты, люди с шизоидными расстройствами), даже если они могут извлекать корни из пятизначных чисел. Таким людям тяжело не то что спланировать убийство комара, они с трудом переносят ощущения новой обуви на своих ногах, о каком захвате мира тогда говорить? Здесь уже явная связь с процессами ментализации, что говорит о неотделимости интеллекта от этики.
«Самым разумным поступком ребёнка с тикающей бомбой в руках было бы аккуратно положить бомбу на пол, быстро выбежать из комнаты и позвать взрослого. Но что, если вся наша комната полна детей, и каждый ребенок имеет свободный доступ к пусковому механизму? Шансы, что мы все положим опасную игрушку на пол, крайне малы. Какой-нибудь маленький идиот обязательно нажмёт на кнопку, лишь бы увидеть, что произойдёт» – пишет Ник Бостром [6].
Думается, что другой сценарий, где ИИ будет мыслить не одними математическими формулами/программным кодом, тоже возможен. Это будет намного сложнее и не так страшно, как предполагает Бостром. И тогда людям понадобятся другие стратегии для сосуществования с ИИ. «Человечество пока не готово к встрече с суперинтеллектом и не будет готово ещё много лет» – отмечает Ник Бостром [6]. Но, хотя интеллектуальный скачок может не происходить ещё достаточно долго, мы должны обратить внимание на возможные проблемы уже сейчас. Многие учёные в погоне за созданием суперинтеллекта забывают об опасностях.
Список литературы
References