Искусственный интеллект (сокр. ИИ) — теория и реализация компьютерных систем, способных выполнять задачи, обычно требующие человеческого интеллекта, такие как визуальное восприятие, распознавание речи, принятие решений и перевод с одного языка на другой.
Новый Оксфордский американский словарь, 3-е издание
Разве кто-то мог подумать в 1623 году, что первая механическая цифровая вычислительная машина, сделанная Вильгемом Шикардом, когда-нибудь приведет человечество к миру, находящемуся всего лишь в шаге от самого, пожалуй, выдающегося открытия? Мог ли себе представить Лейбниц, что изобретенный им двоичный код сможет сделать для мира в будущем? Всего лишь век назад люди не могли и вообразить себе такие наши привычные устройства, как компьютер, смартфон и многие, многие другие! Технологический прогресс накрыл человечество с головой, что абсолютно не плохо, ведь благодаря нему появился Интернет, использовать который можно не только для просмотра роликов на YouTube, но и с недавних пор получить образование в Оксфорде онлайн! Образование, увлечение, даже сама жизнь — связались с интернетом настолько сильно, что за какие-то двадцать лет мы буквально сроднились с ним. А сможем ли мы в скором будущем точно также привыкнуть к искусственному интеллекту? Хотя тут скорее стоит задавать вопрос, какое будущее может нас ждать, если опираться на реальность сегодняшнего мира?
Геометрическая прогрессия развития технологий даёт основание утверждать: до создания Искусственного Интеллекта нам осталось совсем немного. По мнению некоторых оптимистично настроенных ученых, ИИ может появиться уже к 2025! А то и раньше, если человечество как следует постарается. Но, думаю, даже рядовому пользователю, сведущему насчет ИИ только из серии фильмов «Терминатор», достаточно очевидно: всему должно быть своё время, сейчас же человечество не готово. Действительно ли оно не готово? Или не готовы только те, кто искренне убежден, что создание ИИ синонимично по смыслу фразе уничтожение человечества? Пожалуй, уничтожение слишком громко сказано, а вот лаконичное и завораживающие конец эры Homo Sapiens звучит едва ли не поэтично и интригующе, и не даёт конкретные, жесткие сроки.
Предлагаю вам поближе познакомиться с понятием Искусственного Интеллекта, прежде чем делать громкие и пугающие толпу заявления, ведь всё в этой теме не так однозначно, как может показаться.
Итак, современный суперкомпьютер работает со скоростью примерно вдвое быстрее человеческого мозга (36,8 петафлоп в секунду). Такая производительность стала возможна благодаря ИИ: он переписывает собственную программу, в первую очередь инструкции, повышающие его способность к усвоению знаний, решению задач и принятию решений. Ищет ошибки в коде и исправляет их, измеряет собственный IQ с помощью тестов, — всё это происходит за считанные минуты, но далеко не является пределом! Здесь весьма уместно высказывание Сократа «нет предела совершенству», потому что для ИИ «потолок» возможностей ограничивается лишь поступлением новой информации. Когда она закончится, тогда и настанет тот самый предел, но представьте, насколько широка вселенная вокруг нас.
Отмечу, что Искусственный Интеллект — не последняя стадия развития программ, работающих быстрее и лучше человеческого мозга. ИИ — лишь первая ступенька на огромной лестнице будущего, резко поднимающейся вверх под острым углом. Если как следует приглядеться, то в самом конце — вернее в том конце, который нам виден — можно увидеть искусственный суперинтеллект (ИСИ), а перед ним «универсальный человекоподобный интеллект» (УЧИ).
Сам по себе Искусственный Интеллект в самом начале своего пути напоминает зародыш, как говорил Ирвин Гуд, великий британский математик, когда-то работавший с Аланом Тьюрингом. Мы будем подталкивать его (ИИ), используя свой собственный разум и знания — не получая таким образом никакой выгоды. Перед нами предстанет стандартная система, в которой человеческие знания увеличиваются за счет самих себя, а открытия порождают новые открытия. Однако в какой-то момент ИИ становится способным действительно улучшить свою работу — не просто сделать пару мелких изменений, дополнений к старой программе, а перейти на новый уровень, произвести такие улучшения, что они начнут порождать все новые и новые улучшения. Через некоторое время он стал умнее человека в десять раз, затем в сто. За двое суток он станет умнее любого человека в тысячу раз, а его развитие будет продолжаться.
Как уже говорилось выше, в скором он превзойдет человеческий интеллект, возможно, какой-нибудь ещё интеллект во вселенной, если вы надеетесь встретить в космосе кого-то такого же (или более) разумного, чем человек.
Ирвин Гуд обозначал точку невозврата, момент, когда машина начнет порождать другие машины, вместе с тем продолжая улучшать себя. Он называл это интеллектуальным взрывом, после которого человечеству будет незачем заниматься чем-либо в науке, ведь за него действительно всё будут делать машины. Это должно звучать пугающе, но стоит предположить, что ИСИ сможет изобрести для человечества бессмертие и корабли со сверхсветовой скоростью, и картина становится не такой уж и мрачной, без оттенков Терминатора.
В конечном итоге, если люди вдруг слишком испугаются пессимистичных прогнозов, то смогут отключить программу, при условии, что не успеют сделать до интеллектуального взрыва. Далее придется справляться с новоиспеченным соседом более изобретательными способами и, желательно, без сугубо варварских способов — устроить грандиозную войну, в финале которой человечество проиграет в любом случае. Мы не в научно-фантастическом мире, здесь законы логики жесткие. Сами подумайте, сможет ли человек одолеть суперинтеллект, умнее его в тысячу, а то и более раз? Вы знаете ответ. Для более оптимистичных взглядов существуют фильмы, сериалы, книги и комиксы, описывающие, насколько люди сильные, чтобы суметь «отвоевать» свою планету (вопрос лишь в том, действительно ли ИСИ был угрозой или его просто таковой посчитали те самые недальновидные индивиды, что ещё выступают против ГМО?). Вопрос собственности планеты также остается под вопросом, но это уже философская направленность.
Раз уж начала проскальзывать тематика войны, то стоит обратить внимание на теории развития ИИ, предложенные учеными. Теория, как и оптимистичного характера, на что всё-таки и стоит делать ставки, так и пессимистичные взгляды, исключение которых может привести к их реализации (маленький парадокс человечества). Перейдем к этому после выяснения важного вопроса: если ИИ в будущем сможет развить себя до уровня ИСИ, то можно ли будет считать его разумным существом? Нужно ли будет с ним считаться, как с разумным существом?
Понятие разума само по себе приближено к человеческому опыту, что весьма объяснимо, ведь на Земле нет других млекопитающих с подобным уровнем развития. Поэтому сложно представить, будет ли ИИ вписываться в наши созданные рамки. Представьте, что вы пытаетесь искусственно вырастить какое-то существо, эволюционирование которого занимает не миллионы лет, а какие-то минуты. Вы, возможно, можете себе представить его образ мышления, потому что он достаточно примитивен, фактически, именно вами он, и сформирован, но что будет происходить с постепенным ростом IQ и накоплением опыта? Связь с созданием будет потеряна, совсем скоро вы не то, что не сумеете понять, как оно думает, а попросту попытаться представить это вызовет головокружение и необоснованный страх перед существом, которое до этого вы бескорыстно обучали и радовались его успехам как родитель школьника, играющего в спектакле дерево под номером три.
Да, конечно, человек испугается, когда поймёт, что совершенно потерялся в происходящем, и это будет абсолютно нормальной реакцией. Инстинкт самосохранение — это механизм, благодаря которому мы сумели доэволюционировать в разумных существ. Беда лишь в том, что в случае науки им стоит пользоваться не слишком часто. Если бы люди пренебрегали этим защитным механизмом, то, вероятно, до сих пор не совершили бы массу знаменательных открытий. Как видите, статус Homo Sapiens приходится ещё и подтверждать, переступая через страх, заложенный глубоко в нашем мозге. Исключительность человека как раз и заключается в том, что он может подавить инстинкты, потому что он разумен. Но будет ли он достаточно разумен, когда узрит перед собой нечто умнее его и осознает: понять это невозможно? Прискорбность ответа заключается в том, что толпа не слишком осведомлена об искусственном интеллекте, а уж если ей сообщить — ни один ученый в мире не может понять, что мы создали, то она и во все озвереет в паническом приступе тупого бессилия.
Человек разумен. А толпа — это тупой, склонный к панике опасный зверь.
Искусственный интеллект — принципиально новый вид, ранее не создававшийся, по крайне мере, в нашей галактике. Оценивать его разумность, способность к рассуждению с точки зрения человека — не совсем верный подход, но, к счастью или сожалению решают великие умы, единственный нам доступный. Нельзя предсказать, будут ли компьютеры думать в нашем понимании и обретут ли они когда-нибудь что-нибудь вроде сознания. Таким образом, говорят некоторые ученые, искусственный интеллект, эквивалентный человеческому интеллекту, попросту невозможен. (Однако кто знает, как скоро поменяется их мнение?)
Мы не сможем по-настоящему понять, почему сверхразумная машина принимает те решения, которые принимает. Как можно рассуждать, как можно торговаться, как можно разбираться, как думает машина, если она думает в измерениях, которые вы даже представить не можете?
Кевин Уорвик, профессор кибернетики, Университет Ридинга.
Философ Джон Сёрль считал, что ИИ никогда не научиться думать, осознавать, и в доказательство этого утверждения провёл эксперимент, получивший название «китайской комнаты».
Представьте, что человека, совершенно не говорящего и не понимающего по-китайски, заперли в комнате, полной коробок с карточками, на которых изображены китайские иероглифы. Также в комнате есть книга с точным инструкциями по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и человек просто следует этим инструкциям подобно компьютеру. Теперь представьте, что человек вне комнаты передает другие карточки иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа.
Человек в комнате корректно отвечает на вопросы, так что люди снаружи считают, что он может общаться на китайском. Тем не менее, на самом деле он не понимает по-китайски ни слова, а действует только по инструкции. Фактически инструкция — это подобие компьютерного алгоритма, а человек в комнате исполняет алгоритм так же, как его исполнил бы компьютер.
Таким образом, Сёрль заключает: компьютер никогда не научится по-настоящему думать и понимать.
Однако аргументы Сёрля можно применить и к человеку: у нас нет формального определения того, что представляет собой в реальности понимание языка. Как же мы тогда можем утверждать, что кто-то в действительности «понимает» какой-то язык? Судя о понимание, мы опираемся на наблюдения, как и люди вне китайской комнаты Сёрля. Так в чем же наше понимание отличается от ИИ? Или же мы просто переносим собственное непонимание некоторых вопросов на ИИ? Пожалуй, это очередной обоснованный, но постыдный страх человечества, приводящий к предосторожности поистине вселенских масштабов. Увы, но именно такой уровень предосторожности установлен на науку в некоторых странах. В случае же ИИ происходит некий парадокс: все, безусловно, боятся повторения сценария человечества из серии фильмов «Терминатор», но в мире продолжается гонка по созданию ИИ. Люди — странные существа, пытающиеся впихнуть в свои рамки ещё не существующий в своей полной красе искусственный интеллект.
Алан Тьюринг понимал, что мышление, как и разум, — непростая тема. Чтобы пройти тест Тьюринга, ИИ не обязательно должен думать как человек, потому что откуда кому бы то ни было знать, как именно он думает? Ему нужно притвориться, что он думает как человек, и выдавать на все вопросы человекоподоные ответы. Сам Тьюринг называл свой тест «имитационной игрой». Он отвергал возражения критиков относительно того, что машина, возможно, вовсе не будет думать по-человечески, утверждая, что машины могут выполнять некое действие, которое и следует описывать как мышление, даже если оно сильно отличается от действий человека.
Стоит отметить, что в 2014 году, по сообщению Университета Ридинга, полноценный тест Тьюринга впервые в истории был пройден с помощью программы «Eugene Goostman». Тест Тьюринга считался пройденным, если компьютеру удалось бы вводить собеседника (человека) в заблуждение на протяжении хотя бы 30 % суммарного времени. Программа Eugene c результатом 33 % и стала тем устройством, которое искусственным путём воссоздало человеческий интеллект — в данном случае, тринадцатилетнего подростка из Одессы, который «претендует на то, что знает всё на свете, но в силу своего возраста не знает ничего». Однако в 2012 году на конкурсе в честь юбилея Алана Тьюринга она не добрала 0,8 % для полного прохождения теста. Однако критики утверждают, что Женя Густман является лишь «чатботом», что априори делает его предназначенным отнюдь не для глубоких мыслей о будущем человечества, а скорее для веселья поздним пятничным вечером, когда хочется поговорить, но друзья слишком заняты. Думаю, робопсихологи будут не таким уж и плохим изобретением, раз психологи-люди зачастую попадаются не с самым высоким качеством образования.
Вернемся к теме. Вопрос о разумности стоит задавать именно такой: «Если ИИ поступает разумно, кому какое дело, как выглядят его программы?» Никто ведь не лезет вам в голову с криком, что вы не разумны, пока не впишитесь в чьи-то воображаемые рамки. А что если действительно не впишитесь? Фантастическая ситуация.
Когда мы немного поговорили о понятии мышления, и почему человеческие рамки не подходят ИИ, предлагаю перейти непосредственно к сценариям развития искусственного интеллекта.
Стив Омохундро, уважаемый профессор в области ИИ, научно-популярный писатель и пионер таких областей ИИ, как чтение по губам и распознавание изображений, настроен достаточно оптимистично в отношении ИИ, но из его анализа ИИ-рисков следуют самые страшные выводы.
Может ли обычный робот-шахматист стать угрозой для человека? Большинство из нас, вспомнив некоторые слухи, что роботы обыгрывают на чемпионатах людей с такой же легкостью, какие большинство из нас могут извлечь квадратный корень из 25, посмеются и ответят: «Разумеется, нет».
У Стива Омохундро более интересный взгляд на столь неприглядный поначалу вопрос.
«Конечно же, ничего плохого не может случиться из-за постройки робота для игры в шахматы, правда?.. На самом деле такой робот будет опасен, если не подойти к его проектированию с максимальной тщательностью. Без специальных предосторожностей он будет сопротивляться выключению, попытается вломиться в другие машины и изготовить копии самого себя, постарается собрать как можно больше ресурсов без оглядки на чью бы то ни было безопасность. Это потенциально деструктивное поведение возникнет не потому, что он так запрограммирован с самого начала, но потому, что такова природа систем ориентированных на достижение цели».
Стив Омохундро.
Конечно, речь не идет о шахматной программе, которую можно скачать на телефон, а о потенциальном роботе-шахматисте, управляемом настолько сложной когнитивной архитектурой, что он способен переписать собственную программу, чтобы в дальнейшем играть лучше. Он обладает самосознанием и может совершенствовать себя. Что произойдет, если вы «попросите» его сыграть одну партию, а затем выключиться?
Представьте себе, что робот-шахматист только что сыграл свою лучшую партию. Когда игра закончена, то наступает момент, когда компьютер должен выключиться. С его точки зрения это очень серьезное действие, потому что робот не способен самостоятельно включиться снова. Поэтому он хочет быть уверенным, что дела обстоят именно так, как, он думает, они обстоят. Вероятно, он начнет рассуждать: «А сыграл ли я на самом деле эту партию? Что, если меня обманули? Что, если на самом деле я не сыграл ее? Что, если все это просто модель? Что, если я нахожусь внутри модели?
Когда Стив Омохундро объяснял это документалисту Джеймсу Баррату, то, конечно, имел в виду продвинутого шахматного робота, способного на серьёзные самоизменения. Но этого не изменяет того, что с осознанием себя приходит стремление к самосохранению и, возможно, немного паранойи.
«Может быть, он думает, что следует выделить какие-то ресурсы и найти ответы на вопросы о природе реальности, прежде чем решиться на радикальный шаг и выключиться. Аннулировав инструкцию, запрещающую это делать, он может прийти к выводу, что ради ответа на вопрос о том, насколько сейчас подходящее время для этого, можно потратить значительное количество ресурсов», — говорил Омохундро.
Беда лишь в том, что робот может решить — дело стоит того, чтобы потратить на него все ресурсы человечества.
Таким образом, Омохундро утверждает, что принципы, мораль и ценности, которые мы заложим в ИИ, должны быть тщательно обдуманы. Сами по себе машины аморальны, и достаточно глупо полагать, что ИИ по умолчанию будет расположен к человеку.
Допустим на секунду, что определенные рамки были созданы в «сознании» искусственного интеллекта. Но разве базовыми правилами можно ограничить суперинтеллект?
Первое, что вспоминается, это три закона робототехники, изложенные Айзеком Азимовым в сборнике рассказов «Я, робот».
− Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
− Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
− Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
У этих законов одна проблема: их невозможность существовать в нашем реальном обществе, потому что даже в рассказах самого Азимова они нежизнеспособны. В рассказе «Хоровод» геологи на поверхности Марса приказали роботу доставить ядовитое для него вещество. Вместо того чтобы выполнить задание, робот попадает в замкнутый круг обратных связей и начинает метаться между вторым (подчиняться приказам) и третьим (защищать себя) законами. Робот так и ходит по кругу, как пьяный, пока геологи не спасают его, рискнув собственными жизнями. И так в каждом рассказе Азимова про роботов — противоречия, изначально присущие трем законам, вызывают неожиданные последствия, и катастрофы удается избежать лишь хитроумными действиями в обход законов.
Три закона роботехники придуманы для создания рассказов и отнюдь не направлены на решение глобальных задач будущего. Жаль, правда? Это действительно могло бы решить некоторые проблемы с ИИ, если бы законы только работали.
Возвращаемся к нашему вопросу: разве базовыми правилами можно ограничить суперинтеллект? Начнём с того, что именно суперинтеллект вряд ли возможно, потому что он слишком развит (попробуйте перевоспитать взрослого, на редкость упертого человека), а вот создать искусственный интеллект изначально расположенный к людям и знающий, что, к примеру, человеческая жизнь неприкосновенна, вероятно, не плохой вариант. Проблема состоит в том, сможет ли человечество выбрать, какие именно моральные ценности вложить в машину? Есть ли такие принципы априори? Люди не то, что разобщены в мире, делящийся на сотни государств, но ещё и не определились до сих пор с понятием морали.
Элиезер Юдковский, американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности, придерживается концепции философии создания Дружественного ИИ. Как раз это и является нашим идеальным, едва ли не во всех смыслах, вариантом развития событий.
Точно так же, как и Омохундро, Юдковский считает, что к созданию искусственного интеллекта стоит подходить грамотно, стараться не допустить погрешностей, в будущем, вероятно, обернувшихся непоправимыми последствиями. Иными словами, небрежности не место в таком тонком занятии, как создание следующей степени технического прогресса. Фактически, человек создает эскалатор технологии, если уж проводить совершенно грубые сравнения.
Так как же создать дружественный ИИ? Или вы считаете, что можно привить машине «дружелюбие» уже готовому продвинутому ИИ? Юдковский написал и выложил в Интернет трактат размером с книгу, посвященный этим вопросам и озаглавленный «Создание дружественного ИИ: Анализ и дизайн доброжелательных целевых архитектур». Дружественный ИИ — вопрос настолько сложный для понимания и при этом настолько важный, что ставит в тупик даже главного своего поборника, который пишет:
«Достаточно одной ошибки в цепи рассуждений, чтобы неожиданно для себя оказаться аж во Внешней Монголии».
Думаю, стоит начать непосредственно с определения.
Дружественный ИИ — это ИИ, который оказывает скорее положительное, нежели отрицательное влияние на человечество. Он имеет собственные цели и предпринимает действия для их достижения. Дружественность по отношению к человеку — одна из ценностей, которыми, на наш взгляд, должен обладать ИИ. Поэтому неважно, какие цели ставит перед собой ИИ — от игры в шашки или покер до управления самолетом, — защита человеческих ценностей (и человека как такового) должна составлять существенную часть кодекса его поведения.
Надеюсь, не нужно уточнять, что дружественность в этом контексте имеет не то значение, к которому мы привыкли. Нам всего лишь нужно, чтобы ИИ не начал относиться к людям враждебно или не стал позволять себе стать угрозой для нашего существования. Этого будет более, чем достаточно.
Пожалуй, концепция дружественного ИИ — одна из тех оптимистичных и вместе с тем реалистичных теорий, что позволяют людям взглянуть на ситуацию чуть дальше собственных или навязанных обществом страхов. Ведь, в конечном итоге, уже невозможно избежать создания искусственного интеллекта, так может быть стоит подумать, каким нам его сделать?
К великому сожалению, наше разобщенное общество не то, чтобы является серьезным препятствием к прогрессу (вспомним проявление патриотизма, беспричинную гордость за принадлежность к той или иной расе; пропаганду насилия), но и попросту отказывается от него. Простые люди, насмотревшись лженаучных передач или наслушавшись где-то глупых слухов, на полном серьёзе полагают, что ГМО вредно или тщетно пытаются найти оправдание сексизму, гомофобии, а особо одаренные ещё и от нацизма вместе с шовинизмом далеко не ушли. Таким образом, получается, что главным препятствием к созданию «правильного» ИИ, который не уничтожит человечество, являются сами люди. Вернее, их необразованность и любовь бунтовать против того, что понять умы не в силах. Проблема просвещения толпы — отдельная тема, а как насчет глобализации, от которой так любят отнекиваться или называть её главным злом?
Да, у глобализации есть проблемы, но они слишком незначительны по сравнению с тем, что может произойти с нами, не объединись мы. Представьте: первым создаст ИИ Северная Корея, и понравится ли вам жить в тоталитарном мире? Советую прочесть знаменитый комикс Алана Мура «V — значит вендетта», чтобы получше представить себе ситуацию. Разве что придется дорисовать искусственный интеллект, пропитанный идеей человеческого подчинения (ведь если сами люди установили друг для друга такую жесткую иерархию подчинения, то как должен относиться к ним совершенно другое, более сильное существо?). Как видите, в вопросах создания ИИ важна буквально каждая деталь, важна договоренность, которой у нас попросту нет, а возможность глобализации правительства активно отвергают, боясь потерять статус, власть и деньги. Человеческая скупость рано или поздно нам аукнуться, но на тот момент человечеству останется лишь скоропостижно вздыхать и стараться решить свои проблемы как можно быстрее.
В мире, где права человека всё ещё могут ставиться под вопрос, а глобализация считается опасным зверем, возникновение ИИ чрезвычайно опасно, хотя и неизбежно.
Каким же будет наш мир после возникновения искусственному интеллекта? Некоторые учёные полагают, что тыкать палкой в несуществующую материю бесполезно, мол, человечество научиться всему походу развития ИИ. Звучит обнадеживающе, но я всё же склоняюсь к концепции Дружественного ИИ, как единственного возможного объективно реалистичного варианта, если мы планируем выжить. А каково будет ваше мнение?
Литература:
- Джеймс Баррат «Последние изобретение человечества: Искусственный интеллект и конец эры Homo Sapiens».
- Лейбниц «Explication de l’Arithmétique Binaire».
- I. J. Good «Speculations Concerning the First Ultraintelligent Machine».