До какого уровня может дойти искусственный интеллект?

Искусственный интеллект все активнее становится частью жизни современного человека. Его методы используются во многих сферах, позволяя людям эффективнее и рациональнее решать различные проблемы.

Искусственный интеллект Искусственный интеллект
Фото: Futureoflife.org

Например, информационная система IBM Watson помогает электрикам предугадывать желания клиентов; система беспилотного вождения Uber самостоятельно определяет, каким образом можно быстрее доставить пассажиров к месту назначения; а компания Insilico Medicine использует технологии искусственного интеллекта для разработки новых фармацевтических препаратов.

Искусственный интеллект не только решает поставленные перед ним задачи, но и сам обучается в процессе их решения. Алгоритмы машинного обучения – методов искусственного интеллекта, уже могут распознавать модели различных ситуаций намного лучше, чем это делают люди. Это позволяет им делать прогнозы и принимать эффективные решения.

Понятие успеха всегда было неразрывно связано с научно-техническим прогрессом. То, что раньше казалось смелой выдумкой и мечтой футурологов и писателей-фантастов, постепенно входит в повседневную жизнь. Возможности искусственного интеллекта кажутся безграничными, если принять во внимание объемы информации, которые обрабатывают современные компьютерные системы. Они уже способны не только выполнять поставленные перед ним конкретные задачи, но и моделировать определенные ситуации и выбирать правильные решения.

Но границы искусственного интеллекта значительно шире и возможности его практически безграничны. По мнению ученых, для того, чтобы использование систем машинного обучения приносило настоящий успех, они должны понимать человеческие ценности – то, что движет людьми, их чувства, эмоции, опыт и нравственные ориентиры. Более того, искусственный интеллект должен уметь взвешивать наши порой противоречивые желания и требования, понимать, что для нас важнее всего, и действовать соответственно. То есть он должен принимать решения, исходя из представлений о морали и психологического состояния человека.

И вот тут встает главный вопрос: как далеко может зайти развитие искусственного интеллекта?

Понимание сути человеческих ценностей

Этическая сторона вопроса привлекает внимание и специалистов. Так, например, финский ученый Кай Сотала из Института фундаментальных исследований решил проанализировать ее на примере уличного движения и беспилотных автомобилей. В качестве модели он выбрал ситуацию, довольно типичную для больших городов, и задал системе вопрос: следует ли ехать по платной дороге, чтобы сократить время в дороге на пять минут, или лучше выбрать более длинный путь, сэкономив тем самым деньги?

Найти ответ на этот вопрос оказалось не так легко, как может показаться на первый взгляд. Например, человек А может предпочесть платную дорогу, проезд по которой обойдется ему в пять долларов, если на этом он сэкономит пять минут. Но люди вряд ли выберут платную дорогу, если проезд по ней будет стоить 10 долларов. С другой стороны, человек B всегда будет выбирать кратчайший маршрут, независимо от цены, так как он ценит свое время превыше всего.

В подобной ситуации мы фактически просим систему машинного обучения определить, что люди ценят больше: время или деньги. Соответственно, то, что поначалу кажется простым вопросом о том, как быстрее попасть в точку назначения, становится сложной проблемой выбора спорных предпочтений. Справится ли искусственный интеллект с такой задачей?

Как отмечает Сотала, некоторые люди могут подумать, что выбор направления движения это всего лишь вопрос эффективности, но система искусственного интеллекта может подсказать, как лучше это сделать. Тем не менее, всегда найдется человек, который почувствует, что в выборе другого решения тоже есть определенный смысл.

Системы машинного обучения должны взвешивать наши ценности и уметь принимать компромиссные решения. Однако, по мнению ученого, пока главная проблема состоит не в этом. Задачи, с которыми сталкиваются системы, достаточно просты. Исследователи могут вручную вводить необходимую информацию о степени их важности. Но по мере усложнения агентов искусственного интеллекта, или «умных поисковых агентов», им предстоит самостоятельно учитывать и оценивать предпочтения человека.

Что такое «практичные агенты»

Когда речь заходит о степени важности тех или иных человеческих ценностей, возникает вопрос о том, каким образом так называемые интеллектуальные агенты или программные сущности принимают решения. Термостат, например, является типом агента с простым поведением. Он знает, когда начинать отопление дома, поскольку он настроен на определенную заданную температуру. Термостат включает систему отопления, когда она опускается ниже этой температуры, и выключает ее, когда она поднимается выше заданной определенной температуры. Целенаправленные агенты принимают решения, основанные на достижении конкретных целей. Например, агент, целью которого является приобретение всего, что указано в списке покупок, будет продолжать поиск до тех пор, пока не найдет каждый предмет.

Еще один тип интеллектуальных агентов – практичные агенты — стоят на голову выше целенаправленных агентов. Они могут иметь дело с ситуациями, при которых нужно решить дилемму, например: мне нужно купить молоко и новую обувь, но сегодня покупка молока для меня важнее, чем покупка новой обуви. Тем не менее, сейчас я нахожусь ближе к обувному магазину, чем к гастроному, и оба магазина вот-вот закроются. У меня больше шансов купить обувь, чем молоко. То есть на каждом этапе принятия решения интеллектуальным агентам предоставляется на выбор несколько вариантов решения задачи. Каждый из них подразумевает определенную степень практичности или награду. Для достижения своей цели агенты следуют по тому пути выбора решения, благодаря которому увеличится общий объем награды. Такое мышление характерно для машины, но оно не всегда удовлетворяет человека.

С технической точки зрения практичные агенты при принятии решения опираются на «функции полезности». Это формулы, которые системы используют для синтеза данных, балансировки переменных и максимального увеличения награды. Ведь в конечном итоге путь принятия решений должен привнести наибольшее вознаграждение при выполнении поставленных задач.

Несмотря на то, что практичные агенты хорошо работают при поиске шаблонов и реагировании на награды, они все же имеют фиксированный набор приоритетов. Поэтому эти методы будут неэффективны при использовании будущих систем общего искусственного интеллекта (ОИИ), которые будут действовать автономно. Им потребуется более глубокое понимание того, в каких случаях и когда человеческие ценности могут меняться. Например, человек будет всегда выбирать более длинный путь, чтобы избежать проезда по автомагистрали и тем самым сэкономить деньги, но не в том случае, когда у него произошел сердечный приступ, и он пытается попасть в отделение неотложной помощи. Сможет ли агент ИИ предвидеть и понять, в какой момент мы делаем выбор между временем и деньгами, между жизнью и смертью? Эта проблема усложняется еще и тем, что люди часто оценивают вещи независимо от возможности получения награды. Иногда люди ценят то, что в определенном смысле может даже нанести вред. Представьте себе ситуацию, когда человек, не терпящий вторжения в частную жизнь, тяжело заболевает, и его лечащему врачу для спасения жизни этого пациента необходима информация глубоко личного, интимного характера. Должен ли агент ИИ раскрывать ее или нет?

По мнению ученых, практичные агенты слишком поверхностны и не понимают природы человеческого поведения. Функции полезности больше описывают само поведение, а не его причины. Например, искусственный интеллект может распознать, что пассажиры предпочитают экономить деньги, но не поймет, почему они это делают.

Как интеллектуальные агенты научились распознавать принадлежность к полу

Фундаментальная проблема заключается в возможности систем искусственного интеллекта научиться понимать то, что управляет нашим поведением и почему мы ведем себя так, а не иначе. Это позволит им использовать их для определения, каким образом следует реагировать в незнакомых и непредвиденных ситуациях. Как отмечают ученые, системы ИИ должны иметь модели, которые позволят им вычислять возможную реакцию человека в совершенно новых условиях.

В некоторых сферах системы искусственного интеллекта способны без участия человека удивлять пониманием наших моделей мира. В качестве одного из примеров можно привести исследование с «встраиванием слов», где системе ИИ было поручено классифицировать предложения как верные или неверные. В ходе выполнения этой задачи система смогла определить отношения между словами. Например, когда агент ИИ заметил, что слова могут меняться в зависимости от категории рода – мужской и женский, он создал конструкции, которые позволили ему перейти от «короля» к «королеве» и наоборот.

Так появились системы, которые смогли освоить более сложные модели и ассоциации. Например, новая система искусственного интеллекта компании OpenAI GPT-2 была обучена читать определенный текст, а затем писать материал, который мог бы быть продолжением прочитанного ею текста. Когда системе поставили задачу в качестве домашнего задания описать причины гражданской войны в США, она написала нечто похожее на школьное сочинение об этом историческом событии. В другом случае после подсказки о том, что «Леголас и Гимли пошли в наступление на орков, подняв оружие с душераздирающим боевым кличем», система написала нечто похожее на фанфик «Властелина колец». В этом любительском сочинении по мотивам известной книги она даже использовала такие имена и названия из романа, как Арагорн, Гэндальф и Ривенделл.

Как отмечают исследователи, в обоих случаях агент ИИ не пытался учиться как человек, но постарался выполнить свою задачу, используя любые возможные методы. И оказалось, что он построил картину, очень похожую на человеческое представление о мире.

Очевидно, что системы ИИ имеют преимущества при обработке информации. Они способны автоматически изучать лучшие способы представления данных и при этом разрабатывать модели, которые соотносятся с человеческими ценностями. В тех случаях, когда человек не может определить, как обозначить, а затем смоделировать свою реакцию, системы искусственного интеллекта могут самостоятельно выявлять закономерности и создавать соответствующие модели. Но может произойти и обратный эффект: агент ИИ может создать нечто очень похожее на реакцию человека, но с точки зрения морали его решение будет неприемлемым. Или же методы, которые предлагает искусственный интеллект, могут оказаться достаточно примитивными.

Предположим, что агент ИИ узнает, что все люди хотят быть счастливыми. Пытаясь усилить наше ощущение счастья, он подключает наш мозг к компьютерам, которые с помощью электрических стимулов создают эффект постоянной радости. В этом случае система понимает, что люди ценят счастье, но у нее нет подходящей модели того, как счастье связано с другими ценностями, такими как свобода или любовь. Как отмечают ученые, в каком-то смысле система делает нас счастливыми и устраняет все неприятности, но в то же время люди чувствуют, что они имели в виду совсем не это, когда говорили, что ИИ должен их радовать.

Таким образом, пока мы не можем полагаться на способность агента понимать шаблоны человеческого поведения и создавать его точные модели. Исследователям еще предстоит научиться тонко моделировать ценностные ориентиры человека для систем искусственного интеллекта.

Разработка точного определения

Учитывая наши разные потребности и предпочтения, довольно сложно смоделировать ценности каждого конкретного человека. Объединение и согласование моральных ориентиров, которые универсально применимы ко всем людям, а затем их успешное моделирование для систем искусственного интеллекта, кажется невозможной задачей. Тем не менее, ученые предлагают несколько решений. Например, обратное обучение с подкреплением, или попытку предугадывания будущего нравственного развития человечества. Однако зачастую эти решения терпят неудачу. По мнению Соталы, ни одно из этих предложений не дает приемлемого определения сути человеческих ценностей. А это является серьезным препятствием для любых попыток построить систему ИИ, которая была бы предназначена для изучения этих общечеловеческих ценностей.

Чтобы решить эту проблему, финский ученый разработал свой, альтернативный, предварительный вариант определения сущности человеческих ценностей. Он может быть использован для разработки соответствующего агента искусственного интеллекта. Сотала утверждает, что ценности должны быть определены не как постоянные, а переменные понятия и рассматриваться отдельно и независимо от ситуаций, в которых люди меняются, растут и получают награды.

По мнению ученого, в конечном итоге наши предпочтения могут быть лучше поняты с точки зрения эволюционной теории и обучения с подкреплением. В ходе всей своей истории люди развивались для того, чтобы заниматься деятельностью, которая могла бы привести к определенным результатам: победе над врагами, освоению новых земель, развитию сельского хозяйства и т.п., что в итоге приводило к улучшению качества жизни и физического состояния наших предков. Современные люди тоже предпочитают такие результаты, даже если они больше не влияют на наш организм. Мы продолжаем учиться умению наслаждаться жизнью и стремимся к такому психологическому состоянию, которое может обернуться для нас высокой наградой, даже если этого не произойдет на самом деле. То есть вместо получения конкретной награды наши предпочтения больше распространяются на ожидание этой награды.

По мнению Соталы, это определение будет полезно при попытке запрограммировать человеческие ценности в машины. Таким образом системы ИИ поняли бы, что каждый новый опыт человека может менять представление о том, какие действия приведут к получению награды.

Как отмечают эксперты Научно-исследовательского института машинного интеллекта (MIRI, США), системы обучения человеческим ценностям, учитывающие особенности гибкой психологии человека, могут быть лучше приспособлены для учета наших будущих предпочтений, чем для оптимизации наших текущих потребностей.

Сотала признает, что предложенная им форма моделирования ценностей не идеальна. Она является лишь попыткой определения сути человеческих ценностей, и эта тема требует дальнейших исследований. Ученым еще предстоит ответить на эмпирические вопросы, связанные с тем, как эти ценности возникают и меняются с течением времени. Помимо ответов, полученных опытным путем, исследователям необходимо будет найти ответы на философские вопросы, например, как следует интерпретировать эти ценности, и как они могут помочь общему искусственному интеллекту в принятии решений.

По мнению Соталы, прогресс в этой сфере исследований может заключаться лишь в достижении как можно большего консенсуса. Вместо того, чтобы пытаться найти единственно правильный способ, мы должны стремиться найти такой вариант решения проблемы, с которым согласится как можно больше людей, отмечает он.

В настоящее время ученый работает над другим подходом к моделированию человеческих ценностей. Он рассматривает людей как многоагентные системы. Кроме того, исследования в этой области ведутся и Институтом будущего человечества (Великобритания). Группа ученых под руководством Стюарта Армстронга занимается синтезированием человеческих предпочтений в более сложную функцию полезности.

Перевод Букаевой Д.