Человечество, возможно, стоит на пороге создания искусственного интеллекта. Мозг и компьютер

💖 Нравится? Поделись с друзьями ссылкой

Искусственный интеллект – в последнее время одна из наиболее популярных тем в технологическом мире. Такие умы, как Элон Маск, Стивен Хокинг и Стив Возняк всерьез обеспокоены исследованиями в области ИИ и утверждают, что его создание грозит нам смертельной опасностью. В то же время научная фантастика и голливудские фильмы породили множество заблуждений вокруг ИИ. Так ли нам угрожает опасность и какие неточности мы допускаем, представляя уничтожение Земли Skynet, всеобщую безработицу или наоборот достаток и беззаботность? В человеческих мифах об искусственном интеллекте разобралось издание Gizmodo. Приводим полный перевод его статьи.

Это называли важнейшим тестом машинного разума со времен победы Deep Blue над Гарри Каспаровым в шахматном поединке 20-летней давности. Google AlphaGo победил на турнире по Го гроссмейстера Ли Седоля с разгромным счетом 4:1, показав насколько серьезно искусственный интеллект (ИИ) продвинулся вперед. Судьбоносный день, когда машины наконец превзойдут в уме человека, никогда не казался так близко. Но мы, кажется, так и не приблизились к осознанию последствий этого эпохального события.

В действительности, мы цепляемся за серьезные и даже опасные заблуждения об искусственном интеллекте. В прошлом году основатель SpaceX Элон Маск предостерег, что ИИ может захватить мир. Его слова вызвали бурю комментариев, как противников, так и сторонников этого мнения. Как для такого будущего монументального события, есть поразительное количество разногласий относительно того, произойдет ли оно, и, если да, то в какой форме. Это особенно тревожно, если принять во внимание невероятную пользу, которую может получить человечество от ИИ, и возможные риски. В отличие от других изобретений человека, у ИИ есть потенциал изменить человечество или уничтожить нас.

Трудно понять, чему верить. Но благодаря первым работам ученых в области вычислительных наук, нейробиологов, теоретиков в области ИИ, начинает возникать более четкая картина. Вот несколько общих заблуждений и мифов касательно искусственного интеллекта.

Миф №1: “Мы никогда не создадим ИИ с разумом сравнимым с человеческим”

Реальность: У нас уже есть компьютеры, которые сравнялись или превысили человеческие возможности в шахматах, Го, торговле на бирже и разговорах. Компьютеры и алгоритмы, которые ими руководят, могут становиться только лучше. Это лишь вопрос времени, когда они превзойдут человека в любой задаче.

Психолог-исследователь из университета Нью-Йорка Гари Маркус сказал, что “буквально каждый”, кто работает в ИИ, верит, что машины, в конце концов, обойдут нас: “Единственное реальное отличие между энтузиастами и скептиками – это оценки сроков”. Футуристы вроде Рея Курцвейла считают, что это может произойти в течение нескольких десятилетий, другие говорят, что потребуются века.

ИИ-скептики не убедительны, когда говорят, что это нерешаемая технологическая проблема, а в природе биологического мозга есть что-то уникальное. Наши мозги – биологические машины – они существуют в реальном мире и придерживаются основных законов физики. В них нет ничего непознаваемого.

Миф №2: “Искусственный интеллект будет иметь сознание”

Реальность: Большинство представляет, что машинный разум будет обладать сознанием и думать так, как думают люди. Более того, критики вроде сооснователя Microsoft Пола Аллена верят, что мы пока не можем достигнуть общего искусственного интеллекта (способен решить любую умственную задачу, с которой справляется человек), потому что нам не хватает научной теории сознания. Но как говорит специалист по когнитивной робототехнике Имперского колледжа Лондона Мюррей Шанахан, нам нельзя приравнивать эти две концепции.

“Сознание безусловно удивительная и важная вещь, но я не верю, что оно необходимо для искусственного интеллекта человеческого уровня. Если выражаться более точно, мы используем слово “сознание” для обозначения нескольких психологических и когнитивных признаков, которые у человека “идут в комплекте”, – объясняет ученый.

Умную машину, которой не хватает одного или нескольких подобных признаков, можно представить. В конце концов, мы можем создать невероятной умный ИИ, который будет неспособен воспринимать мир субъективно и осознано. Шанахан утверждает, что разум и сознание можно совместить в машине, но мы не должны забывать, что это две разных концепции.

То, что машина проходит тест Тьюринга, в котором она неотличима от человека, не означает наличие у нее сознания. Для нас передовой ИИ может казаться осознанным, но его самосознание будет не большим, чем у камня или калькулятора.

Миф №3: “Нам не стоит бояться ИИ”

Реальность: В январе основатель Facebook Марк Цукерберг заявил, что нам не стоит бояться ИИ, ведь он сделает невероятное количество хороших вещей для мира. Он прав наполовину. Мы извлечем огромную выгоду от ИИ: от беспилотных автомобилей до создания новых лекарств, но нет никаких гарантий, что каждая конкретизации ИИ будет доброкачественной.

Высокоразумная система может знать все о конкретной задаче, вроде решения неприятной финансовой проблемы или взлома системы вражеской обороны. Но вне границ этих специализаций, она будет глубоко невежественна и не сознательна. Система Google DeepMind эксперт в Го, но у нее нет возможностей или причин исследовать сферы вне своей специализации.

Многие из этих систем могут не подчинятся соображениям безопасности. Хороший пример – сложный и мощный вирус Stuxnet, военизированный червь, разработанный военными Израиля и США для проникновения и диверсии работы иранских атомных станций. Это вирус каким-то образом (специально или случайно) заразил российскую атомную станцию.

Еще один пример, программа Flame, использованная для кибершпионажа на Ближнем Востоке. Легко представить будущие версии Stuxnet или Flame, который выходят за пределы своих целей и наносят огромный вред чувствительной инфраструктуре. (Для понимания, эти вирусы не являются ИИ, но в будущем они могут его иметь, откуда и беспокойство).

Вирус Flame использовался для кибершпионажа на Ближнем Востоке. Фото: Wired

Миф №4: “Искусственный суперинтеллект будет слишком умен, чтобы совершать ошибки”

Реальность: Исследователь ИИ и основатель Surfing Samurai Robots Ричард Лусимор считает, что большинство сценариев судного дня, связанного с ИИ, непоследовательны. Они всегда построены на предположении, что ИИ говорит: “Я знаю, что уничтожение человечества вызвано сбоем в моей конструкции, но я все равно вынужден это сделать”. Лусимор говорит, что если ИИ будет вести себя так, рассуждая о нашем уничтожении, то такие логические противоречия будут преследовать его всю жизнь. Это, в свою очередь, ухудшает его базу знаний и делает его слишком глупым для создания опасной ситуации. Ученый также утверждает, что люди, говорящие: “ИИ может делать только то, на что его запрограммировали”, заблуждаются также, как и их коллеги на заре компьютерной эры. Тогда люди использовали эту фразу утверждая, что компьютеры не способны продемонстрировать ни малейшей гибкости.

Питер Макинтайр и Стюарт Армстронг, которые работают в Институте будущего человечества при Оксфордском университете, не соглашаются с Лусимором. Они утверждают, что ИИ в значительной мере связан тем, как его запрограммировали. Макинтайр и Армстронг верят, что ИИ не сможет совершать ошибок или быть слишком тупым, чтобы не знать, чего мы от него ожидаем.

“По определению, искусственный суперинтеллект (ИСИ) – субъект, с разумом значительно большим, чем обладает лучший человеческий мозг в любой области знаний. Он будет точно знать, что мы хотели, чтобы он сделал”, – утверждает Макинтайр. Оба ученых верят, что ИИ будет делать лишь то, на что запрограммирован. Но если он станет достаточно умен, он поймет, как это отличается от духа закона или намерений людей.

Макинтайр сравнил будущую ситуацию людей и ИИ с теперешним взаимодействием человека и мыши. Цель мыши – искать еду и убежище. Но она часто конфликтует с желанием человека, который хочет, чтобы его зверек бегал вокруг него свободно. “Мы достаточно умны, чтобы понимать некоторые цели мышей. Так что ИСИ будет также понимать наши желания, но быть к ним безразличным”, – говорит ученый.

Как показывает сюжет фильма Ex Machina человеку будет крайне сложно удерживать более умный ИИ

Миф №5: “Простая заплатка решит проблему контроля ИИ”

Реальность: Создав искусственный интеллект умнее человека, мы столкнемся с проблемой известной как “проблема контроля”. Футуристы и теоретики ИИ впадают в состояние полной растерянности, если их спросить, как мы будем содержать и ограничивать ИСИ, если такой появится. Или как убедиться, что он будет дружественно настроен в отношении людей. Недавно исследователи из Института технологий Джорджии наивно предположили, что ИИ может перенять человеческие ценности и социальные правила, читая простые истории. На деле, это будет куда более сложно.

“Предлагалось множество простых трюков, которые могут “решить” всю проблему контроля ИИ”, – говорит Армстронг. Примеры включали программирование ИСИ так, чтобы его целью было угождать людям, или, чтобы он просто функционировал как инструмент в руках человека. Еще вариант – интегрировать концепции любви или уважения в исходный код. Чтобы предотвратить ИИ от принятия упрощенного, однобокого взгляда на мир, предлагалось запрограммировать его ценить интеллектуальное, культурное и социальное разнообразие.

Но эти решения слишком просты, как попытка втиснуть всю сложность человеческих симпатий и антипатий в одно поверхностное определение. Попробуйте, к примеру, вывести четкое, логичное и выполнимое определение “уважения”. Это крайне сложно.

Машины в “Матрице” могли без проблем уничтожить человечество

Миф №6: “Искусственный интеллект нас уничтожит”

Реальность: Нет никакой гарантии, что ИИ нас уничтожит, или, что мы не сможем найти возможности контролировать его. Как сказал теоретик ИИ Элизер Юдковски: “ИИ ни любит, ни ненавидит вас, но вы сделаны из атомов, которые он может использовать для других целей”.

В своей книге “Искусственный интеллект. Этапы. Угрозы. Стратегии” оксфордский философ Ник Бостром написал, что настоящий искусственный суперинтеллект, после его появления, создаст риск больший, чем любые другие человеческие изобретения. Выдающиеся умы вроде Элона Маска, Билла Гейтса и Стивена Хокинга (последний предупредил, что ИИ может быть нашей “худшей ошибкой в истории”) также выразили обеспокоенность.

Макинтайр сказал, что в большинстве целей, которыми может руководствоваться ИСИ, есть веские причины избавиться от людей.

“ИИ может спрогнозировать, достаточно правильно, что мы не хотим, чтобы он максимизировал прибыль конкретной компании, чего бы это ни стоило клиентам, окружающей среде и животным. Поэтому у него есть сильный стимул, чтобы позаботится о том, что его не прервут, не помешают, выключат или не изменят его целей, поскольку из-за этого изначальные цели не будут выполнены”, – утверждает Макинтайр.

Если только цели ИСИ не будут точно отображать наши собственные, то у него будут достойные поводы не дать нам возможности остановить его. Учитывая, что уровень его интеллекта значительно превосходит наш, мы с этим ничего не сможем поделать.

Никто не знает, какую форму обретет ИИ и как он может угрожать человечеству. Как отметил Маск, искусственный интеллект может использоваться для контроля, регулирования и мониторинга другого ИИ. Или он может быть пропитан человеческими ценностями или преобладающим желанием быть дружественным к людям.

Миф №7: “Искусственный суперинтеллект будет дружелюбным”

Реальность: Философ Иммануил Кант верил, что разум сильно коррелирует с моральностью. Нейробиолог Давид Чалмерс в своем исследовании “Сингулярность: Философский анализ” взял известную идею Канта и применил ее к возникшему искусственному суперинтеллекту.

Если это верно… мы можем ожидать, что интеллектуальный взрыв приведет к взрыву моральности. Затем мы можем ожидать, что появившиеся ИСИ системы будут суперморальны также, как и суперинтеллектуальны, что позволит нам ожидать от них доброкачественности.

Но идея того, что развитый ИИ будет просветленным и добрым, по своей сути, не очень правдоподобна. Как отметил Армстронг, есть много умных военных преступников. Не похоже, что связь между разумом и моральностью существует среди людей, поэтому он поддает сомнению работу этого принципа среди других умных форм.

“Умные люди, ведущие себя аморально, могут вызывать боль гораздо больших масштабов, чем их более глупые коллеги. Разумность просто дает им возможность быть плохими с большим умом, она не превращает их в добряков”, – утверждает Армстронг.

Как объяснил Макинтайр, возможность субъекта достичь цели не относиться к тому, будет эти цель разумной для начала. “Нам очень сильно повезет, если наши ИИ будут уникально одаренными и уровень их моральности будет расти вместе с разумом. Надеяться на удачу – не лучший подход для того, что может определить наше будущее”, – говорит он.

Миф №8: “Риски ИИ и робототехники равнозначны”

Реальность: Это особенно частая ошибка, насаждаемая некритичными СМИ и голливудскими фильмами вроде “Терминатора”.

Если бы искусственный суперинтеллект вроде Skynet действительно захотел бы уничтожить человечество, он был не использовал андроидов с шестиствольными пулеметами. Гораздо эффективнее было бы наслать биологическую чуму или нанотехнологическую серую слизь. Или просто уничтожить атмосферу.

Искусственный интеллект потенциально опасен не тем, что он может повлиять на развитие роботетехники, а тем, как его появление повлияет на мир в принципе.

Миф №9: “Изображение ИИ в научной фантастике – точное отображение будущего”

Множество видов разумов. Изображение: Элизер Юдковски

Конечно, авторы и футуристы использовали научную фантастику, чтобы делать фантастические прогнозы, но горизонт событий, который устанавливает ИСИ, это совсем другая опера. Более того, нечеловеческая природа ИИ делает для нас невозможным знание, а значит и предсказание, его природы и формы.

Чтобы развлекать нас, глупых людишек, в научной фантастике большинство ИИ изображены похожими на нас. “Существует спектр всех возможных разумов. Даже среди людей, вы достаточно отличаетесь от своего соседа, но эта вариация ничто, в сравнении со всеми разумами, которые могут существовать”, – говорит Макинтайр.

Большинство научно-фантастических произведений, чтобы рассказать убедительную историю, не должны быть научно точны. Конфликт обычно разворачивается между близкими по силе героями. “Представьте, насколько бы скучной была история, где ИИ без сознания, радости или ненависти, покончил бы с человечеством без всякого сопротивления, чтобы добиться неинтересной цели”, – зевая, повествует Армстронг.

На заводе Tesla трудятся сотни роботов

Миф №10: “Это ужасно, что ИИ заберет всю нашу работу”

Реальность: Возможность ИИ автоматизировать многое, из того, что мы делаем, и его потенциал уничтожить человечество, две совсем разные вещи. Но согласно Мартину Форду, автору “На заре роботов: Технологии и угроза безработного будущего”, их часто рассматривают как целое. Хорошо думать об отдаленном будущем применения ИИ, но только если оно не отвлекает нас от проблем, с которыми нам придется столкнуться в ближайшие десятилетия. Главная среди них – массовая автоматизация.

Никто не ставит под сомнение, что искусственный интеллект заменит множество существующих профессий, от работника фабрики до высших эшелонов белых воротничков. Некоторые эксперты предсказывают, что половине всех рабочих мест США угрожает автоматизация в ближайшем будущем.

Но это не означает, что мы не сможем справиться с потрясением. Вообще, избавление от большей части нашей работы, как физической так и ментальной, – квази-утопическая цель нашего вида.

“В течении пары десятилетий ИИ уничтожит множество профессий, но это неплохо”, – говорит Миллер. Беспилотные автомобили заменят водителей грузовиков, что сократит стоимость доставки и, как следствие, сделает многие продукты дешевле. “Если вы водитель грузовика и зарабатываете этим на жизнь – вы потеряете, но все другие наоборот смогут покупать больше товаров на ту же зарплату. А деньги, которые они отложат, будут потрачены на другие товары и услуги, которые создадут новые рабочие места для людей”, – утверждает Миллер.

По всей вероятности, искусственный интеллект будет создавать новые возможности производства блага, освободив людей для занятия другими вещами. Успехи в развитии ИИ будут сопровождаться успехами в других областях, особенно в производстве. В будущем, нам станет легче, а не сложнее, удовлетворять наши основные потребности.

Стюарт Рассел

Что такое искусственный интеллект?

ИИ - это исследование того, как сделать машины действующими разумно. Грубо говоря, компьютер разумен в тех пределах, в которых он делает правильные вещи, а не неправильные. Правильным действием считается такое, которое позволяет с наибольшей вероятностью достичь цели. Или, выражаясь техническим языком, действие, которое максимизирует ожидаемую полезность. Создание искусственного интеллекта (ИИ) включает в себя решение проблем машинного обучения, рассуждения, планирования, восприятия, понимания языков, а также робототехники.

Распространённые заблуждения

    ИИ - это конкретная технология. Например, в 1980-е и 1990-е годы часто приходилось видеть статьи, в которых ИИ приравнивался к экспертным системам (основанным на наборах правил); в 2010-х годах ИИ приравнивали к нейронным сетям (в основном, многослойным сверточным). Это примерно как подменять изучение физических законов - проектированием паровых машин. Исследования ИИ относятся к общей проблеме создания интеллекта в машинах; ИИ - не какой-то особый технический продукт, возникший в результате исследования данной проблемы.

    ИИ - это особый класс технических подходов. Например, часто приходится видеть авторов статей, считающих, что ИИ должен быть основан на логическом или символьном подходе и противопоставляют этому, например, нейронные сети или генетическое программирование. ИИ - это не подход, это проблема. Любой подход к решению проблемы считается вкладом в развитие ИИ.

    ИИ - это особое сообщество исследователей. Данное утверждение связано с предыдущим заблуждением. Некоторые авторы используют термин «вычислительный интеллект», упоминая некое якобы обособленное сообщество исследователей, использующих нейронные сети, нечеткую логику, генетические алгоритмы. Такой подход крайне неудачен, поскольку побуждает исследователей опираться только на те методы, которые приняты в их сообществе, а не на те, которые имеют смысл для поставленной задачи.

    ИИ - это просто алгоритм. Строго говоря, такое мнение не является заблуждением, поскольку системы ИИ, как и компьютеры для любых других применений, построены на основе алгоритмов (которыми в широком смысле можно считать программы). Однако род задач, решаемых с помощью ИИ, имеют тенденцию сильно отличаться от традиционных алгоритмических задач, таких как сортировка списков чисел или извлечение квадратных корней.

Каким образом ИИ будет приносить пользу обществу?

Всё, из чего состоит цивилизация, является продуктом нашего разума. ИИ позволяет расширить наши интеллектуальные возможности различными способами, подобно тому, как подъемные краны позволяют нам передвигать сотни тонн груза, самолеты позволяют нам перемещаться на со скоростью в несколько сотен километров в час, а телескопы позволяют нам наблюдать объекты на расстоянии в триллионы миль. Системы ИИ, спроектированные должным образом, позволят реализовывать человеческие ценности в гораздо большем масштабе.

Распространенные заблуждения

    ИИ обязательно приведет к бесчеловечности. Во многих антиутопичных сценариях описывается, как злодеи используют ИИ для того, чтобы контролировать общество различными способами: слежкой, роботами-полицейскими, автоматизированным «правосудием» или командно-административной экономикой. Хотя такие варианты будущего несомненно возможны, большинство людей не будет поддерживать их. С другой стороны, ИИ предоставляет людям лучший доступ к знаниям и индивидуальному обучению; устраняет языковые барьеры; ликвидирует бессмысленную и однообразную тяжелую работу, низводящую людей до положения… эээ… роботов.

    ИИ обязательно усилит социальное неравенство. Вполне возможно, что всё бо́льшая и бо́льшая автоматизация труда приведет к тому, что прибыли и богатства будут концентрироваться в руках все меньшего и меньшего числа людей. Однако у нас есть выбор в том, как именно использовать ИИ. Например, ИИ может способствовать взаимовыгодному сотрудничеству, связывать производителей с потребителями, что позволит большему количеству отдельных людей и мелких групп напрямую участвовать в экономике вместо того, чтобы зависеть от крупных корпораций-работодателей.

Что такое машинное обучение?

Это раздел ИИ, который изучает способы, которые позволят компьютерам повышать эффективность своих действий с помощью накопленного опыта.

Распространенные заблуждения

    Машинное обучение - это новая область, которая большей частью заменила ИИ. По-видимому, данное заблуждение - неожиданный побочный эффект недавнего роста интереса к машинному обучению, в результате которого в на курсы машинного обучения поступают студенты, не имевшие раньше дела с ИИ. Машинное обучение всегда было центральной темой ИИ: Тьюринг в статье 1950 г. утверждал, что обучение - это наиболее вероятный путь к ИИ, а самый успешный ранний ИИ, шахматная программа Артура Самуэля, был создан с использованием машинного обучения.

    Машины не могут учиться, они делают только то, что программисты приказали им делать. Программист может приказать машине учиться! Самуэль был отвратительным шахматистом, но его программа быстро научилась играть намного лучше его. В наши дни многие важные системы ИИ построены методом машинного обучения на основе больших объемов данных.

Что такое нейронная сеть?

Нейронная сеть - вид вычислительной системы, которая имитирует свойства нейронов в живых организмах. Нейронная сеть построена из множества отдельных элементов, каждый из которых получает входной сигнал от одних элементов и посылает выходной сигнал другим элементам. (Эти элементы необязательно должны существовать физически, они могут быть компонентами компьютерной программы.) Выходной сигнал искусственного нейрона обычно вычисляется, исходя из взвешенной суммы входящих сигналов, причем она подвергается некой простой нелинейной трансформации. Ключевым тут является то, что вес каждой из межнейронных связей может быть откорректирован на основе полученного опыта.

Распространенные заблуждения

    Нейронная сеть - это новый вид компьютеров. Практически все нейронные сети моделируются на обычных компьютерах, предназначенных для общих целей. Мы можем построить специализированные компьютеры (их иногда называют нейроморфическими) для более эффективного моделирования нейронных сетей. До сих пор нейроморфические компьютеры не продемонстрировали достаточных преимуществ, чтобы оправдать их более высокую стоимость и затраты времени на конструирование.

    Нейронные сети действуют так же, как и мозг. Реальные нейроны - это гораздо более сложные образования, чем те простые элементы, которые используются в искусственных нейронных сетях. В природе существует много различных типов нейронов и связи между нейронами могут с течением времени меняться; помимо коммуникации между нейронами, мозг задействует и другие механизмы для корректировки поведения; и так далее.

Что такое глубинное обучение?

Глубинное обучение - отдельный вид машинного обучения, при котором обучаются нейронные сети, состоящие из многих слоев. Глубинное обучение стало очень популярным за последние годы и привело к существенному прогрессу в решении таких задач, как распознавание речи и визуальных объектов.

Распространенные заблуждения

  • Глубинное обучение - это новая область, которая в значительной мере вытеснит машинное обучение. Сообщество исследователей нейронных сетей занимается глубинным обучением уже больше двадцати лет. Недавние успехи достигнуты за счет относительно малого усовершенствования алгоритмов и моделей, а также за счет доступности объемных наборов данных и гораздо более мощных наборов компьютеров.

Что такое сильный и слабый ИИ?

Термины «сильный ИИ» и «слабый ИИ» были введены философом Джоном Сёрлом в отношении к двум различным гипотезам, выдвинутым, по его мнению, исследователями ИИ. Согласно гипотезе слабого ИИ, машины можно запрограммировать таким образом, что они будут вести себя как имеющие интеллект человеческого уровня. Согласно гипотезе сильного ИИ, подобные машины можно считать имеющими сознание и описывать их как действительно думающих и рассуждающих, используя эти слова в том же смысле, который применяется к людям.

Распространенные заблуждения

  • «Сильный ИИ» означает исследования ИИ, целью которых служит универсальный ИИ человеческого уровня. Это допустимая интерпретация термина «сильный ИИ», хотя это не то, что он означал при своем появлении в 1980 г. Аналогично, «слабый ИИ» используют для описания ИИ, нацеленного на специфические, узкие задачи, такие как распознавание речи или создание рекомендательных систем. (Также известен как «инструментальный ИИ».) Конечно, ни у кого нет авторского права на эти термины, однако использование существующих технических терминов для обозначения чего-то совсем другого легко приводит к путанице.

Что такое УИИ, ИСИ и сверхразум?

УИИ означает “универсальный ИИ”. Этот термин использутеся для отсылки к амбициозной задаче по созданию универсальных разумных систем, диапазон задач которых как минимум сопоставим с диапазоном задач, за которые могут браться люди.
ИСИ означает “искусственный сверхразум”, это ИИ, существенно превосходящий человеческий интеллект. Точнее говоря, сверхразумная система - такая, которая превосходит людей по способности выдавать высококачественные решения, которые учитывают больше факторов и дальше заглядывают в будущее.

Распространенные заблуждения

    Ведущих исследователей ИИ не заботит УИИ. Конечно, в таких областях, как распознавание речи, есть исследователи, которые работают большей частью над специфическими задачами в своей области. Также некоторые исследователи преимущественно занимаются поисками коммерческих применений для существующих технологий. Тем не менее, у меня сложилось впечатление, что большинство исследователей ИИ в таких областях, как машинное обучение, аргументация и планирование, вносят свой вклад в решение задачи получения УИИ.

    Люди обладают “универсальным” интеллектом. Данное утверждение обычно считают настолько очевидным, что не указывают его явно, но оно подразумевается практически во всех дискуссиях об УИИ. Его обычно обосновывают тем, что люди способны выполнять широкий спектр задач и работ. Но, разумеется, нет такой человеческой профессии, которую человек не мог бы выполнять, поэтому нет ничего удивительного в том, что люди могут быть заняты в широком диапазоне существующих человеческих профессий. Трудно придумать такое определение широты разума, которое бы не зависело от людских когнитивных искажений и ошибок, например, антропоцентризма. Так что мы остаёмся с утверждением, что люди разумны “универсально” в том смысле, что могут делать все вещи, которые люди могут делать. Когда-нибудь удастся приемлемым образом сформулировать, что люди могут многое, а до тех пор вопрос остается открытым.

Что такое закон Мура?

Термин «закон Мура» основывется на фактах и на предсказаниях экспоненциального роста плотности и/или производительности электронных схем. В современной трактовке, отходящей от оригинального заявления Мура, этот закон можно сформулировать так: скорость вычислений, которую можно получить за определённую сумму, удваивается каждые N месяцев, где N примерно равно 18.

Распространенные заблуждения

    Закон Мура - это физический закон. На самом деле, этот закон представляет собой сумму эмпирических наблюдений за технологическим прогрессом; нет ничего, что делало бы его выполнение обязательным, и, конечно, он не будет оставаться справедливым бесконечно долго. Тактовая частота процессоров уже сейчас вышла на плато, и соотношение цена/производительность в последнее время улучшается за счет увеличения числа ядер (процессоров) на одном чипе.

    Быстродействие машин возрастает с такой скоростью, что создание более эффективных алгоритмов - пустая трата времени. На деле же несложные улучшения в алгоритмах часто оказываются намного более значимыми, чем усовершенствования аппаратной части.

Позволяет ли закон Мура предсказать появление сверхразума?

Нет. Есть много вещей, которые системы ИИ не могут делать, например, понимать сложные тексты на естественных языках. Прибавка скорости в подобных случаях означает просто более быстрое получение неправильного ответа. Для создания сверхразума нужны крупные концептуальные прорывы, которые трудно предсказать. Появление более быстрых машин мало чем может помочь.

Распространенные заблуждения

  • Наращивание мощи машин означает увеличение их интеллекта. Эта тема очень часто поднимается в дискуссиях о будущем ИИ, однако она берет свое происхождение из путаницы между понятием «мощный» применительно к человеческому интеллекту и намного более простым понятием «мощный» при описании компьютеров, т. е. числа операций в секунду.

Что такое машинный IQ?

Не существует такой вещи, как машинный IQ. До той степени, до которой интеллектуальные возможности личности сильно зависят друг от друга при выполнении множества задач, можно говорить о том, что люди имеют IQ, хотя многие исследователи оспаривают полезность любой одномерной шкалы. С другой стороны, возможности машины могут никак не соотноситься между собой: машина может победить чемпиона мира по шахматам и при этом совершенно не уметь играть в шашки или любую другую настольную игру. Машина, лучше всех справившаяся с контрольной работой, может оказаться неспособной ответить на простой вопрос о том, как ее зовут.

Распространенные заблуждения

  • Машинный IQ возрастает согласно закону Мура. Поскольку такой вещи, как машинный IQ, не существует, он не может возрастать. Закон Мура относится к только к «сырой» производительности компьютера и никак не связан с существованием алгоритмов, способных решить ту или иную конкретную задачу.

Что такое взрывное развитие ИИ?

Термин «взрывное развитие интеллекта» был введен И.Д. Гудом в 1965 г. в эссе «Размышления о первой ультраинтеллектуальной машине». В эссе описывалась возможность того, что достаточно интеллектуальная машина окажется способной реконструировать свою аппаратную и программную часть с тем, чтобы создать еще более интеллектуальную машину. Процесс будет повторяться, пока «интеллект человека не останется далеко позади».

Распространенные заблуждения

  • Как только машины достигнут интеллекта человеческого уровня, взрывное развитие ИИ станет неизбежным. С другой стороны, логически возможно, что проблема проектирования поколения N + 1 слишком сложна для любой машины поколения N. Также вероятно, что построенные нами машины будут превосходить людей в одних важных аспектах, но отставать от них в других. Они могут превзойти людей в решении важных проблем, таких как проблема нищеты, лечение рака и т.п., оставаясь при этом неспособными предложить что-то новаторское в области исследований ИИ.

Когда системы ИИ станут более разумными, чем люди?

На этот вопрос ответить трудно и тому есть несколько причин. Во-первых, слово «станут» подразумевает, что это вопрос прогнозирования, подобно предсказанию погоды, в то время как на самом деле он содержит элемент выбора: названное событие вряд ли когда-нибудь случится, если человечество решит не преследовать данную цель. Во-вторых, фраза «более разумные» подразумевает простую линейную шкалу интеллекта, которой в реальности не существует. Машины уже намного лучше людей выполняют некоторые задачи, и намного хуже - другие. В-третьих, если допустить существование какого-нибудь приемлемого понятия универсального интеллекта, который можно создать у машин, тогда вопрос приобретает смысл, но на него все равно очень сложно ответить. Получение интеллекта такого уровня потребовало бы значительных прорывов в исследовании ИИ, а их чрезвычайно трудно предсказать. Тем не менее, большинство исследователей ИИ полагают, что системы ИИ превзойдут по разумности людей уже в этом столетии.

Распространенные заблуждения

  • Этого никогда не случится. Делать прогнозы о научных прорывах - на редкость неблагодарное занятие. Так, 11 сентября 1933 г. лорд Резерфорд, пожалуй, самый известный ядерный физик своего времени, сказал большой аудитории на ежегодном съезде Британской ассоциации содействия развития науки, что «Каждый, кто надеется, что преобразования атомных ядер станут источником энергии, исповедует вздор». (Он говорил аналогичные вещи во многих других случаях, используя множество формулировок, все из которых по существу означали, что высвобождение ядерной энергии невозможно.) На следующее утро Лео Силард открыл индуцированную нейтронами цепную ядерную реакцию, и вскоре после этого запатентовал ядерный реактор.

Что могут системы ИИ сейчас?

Диапазон задач, которых машины делают заметные успехи, намного шире, чем несколько лет назад. Он включает игру в настольные игры, включая карты, ответы на простые вопросы, извлечение фактов из газетных статей, сборку сложных объектов, перевод текста с одного языка на другой, распознавание речи, распознавание разнообразных видов объектов на изображения, а также управление автомобилем в большинстве обычных ситуаций дорожного движения. Существует также множество менее очевидных задач, выполняемых системами ИИ, в том числе выявление мошеннических транзакций по кредитным картам, оценка заявок на кредит и торги на сложных электронных аукционах. Многие функции поисковой системы на деле выполняются простыми формами ИИ.

Распространенные заблуждения

    Такая задача, как, например, игра в шахматы, одинакова что для человека, что для машины. Это неверно; машину приходится «вести за ручку» в гораздо большей степени. Люди учатся шахматам, слушая или читая правила, наблюдая и играя. Типичная шахматная программа лишена такой возможности. Правила непосредственно закладываются в машину в форме алгоритма, который генерирует все разрешенные ходы для заданной позиции. Машина не «знает» правила в том смысле, в каком их знает человек. Однако некоторые недавние работы по обучению с подкреплением представляют собой исключение: так, система DeepMind для игры в видеоигры обучается каждой игре с нуля. В действительности неизвестно, в чем состоит ее обучение, но представляется маловероятным, что она учит правила каждой игры.

    Машины выполняют задачи так же, как и человек. Часто мы не знаем, как люди делают те или иные вещи, однако крайне маловероятно, чтобы их действия совпадали с операциями типичной программы ИИ. Например, программы для игры в шахматы учитывают возможные будущие последовательности ходов, начиная с текущего позиции на доске, и сравнивают их последствия, в то время как люди часто опознают возможное преимущество, которое можно получить, а потом ищут ходы, позволяющие его достичь.
    Если машина может выполнить задачу Х, то она сможет выполнить все задачи, доступные человеку, который способен решить задачу Х. См. вопрос о машинном IQ. В настоящее время машины не имеют универсального интеллекта в том смысле, что и человек, поэтому их способности часто очень узки.

Как ИИ повлияет на человечество в ближайшем будущем?

Очень вероятно, что в обозримом будущем появятся некоторые крупные новшества. Так, уже активно разрабатывается и тестируется автомобиль с системой автоматического управления. По меньшей мере одна компания обещала первые доставки грузов с их помощью в 2016 г. (Другие компании более осторожны, осознавая выпавшие им трудности.) Благодаря совершенствованию компьютерного зрения и передвижения с помощью ног стало практичным использовать роботов в неструктурированном окружении. К подобным задачам относятся сельское хозяйство, сервисное обслуживание техники, а также помощь людям (особенно престарелым и немощным) в домашних делах. Наконец, машины улучшили свое понимание речи, поэтому поисковые системы и «персональные помощники» на мобильных телефонах перешли от индексации веб-страниц к их пониманию, что привело к качественному улучшению способности таких систем отвечать на вопросы, синтезировать новую информацию, давать советы и сопоставлять факты. Кроме того, ИИ может сильно повлиять на такие области науки, как системная биология, в которых сложность и большой объем информации бросают вызов способностям человека.

Распространенные заблуждения

  • Роботы готовы захватить власть. См. раздел «Когда системы ИИ станут более разумными, чем люди?» В подавляющем большинстве случаев прогресс в области ИИ происходит пошагово и относится к тому, как сделать компьютеры и роботов более полезными. Тем не менее, в долгосрочной перспективе проблема сохранения людского контроля остается важной.

Приведет ли прогресс ИИ и робототехники к тому, что большинство профессий, в настоящее время выполняемых людьми, перейдет к машинам?

Некоторые исследования, например, выполненное Frey and Osborne (2013), говорят о том, что из-за автоматизации в ближайшем будущем могут пострадать до половины профессий в США; другие авторы, например, Brynjolfsson and McAfee (2011), указывают, что процесс уже начался: медленный возврат к полной занятости после рецессии 2008 г., а также расхождение между повышением продуктивностью и стагнацией заработной платы являются последствиями повышенной автоматизации в профессиях, которые предусматривают рутинные операции. Принимая во внимание, что прогресс ИИ и робототехники продолжается, представляется неизбежным, что большинство профессий будет затронуто. Это не обязательно означает массовую безработицу, но может привести к большому сдвигу в структуре экономики и потребовать новых идей по организации работы и оплате.

Распространенные заблуждения

  • Любая работа, которую выполняет робот, означает меньше работы для людей. Работа - не игра с нулевой суммой: человек, которому помогает команда роботов, может быть намного более продуктивным и, следовательно, гораздо более востребованным; без помощи роботов работа человека, сделанная с тем же самым старанием, может оказаться экономически неоправданной, и ни человек, ни роботы не делали бы ничего. Из тех же соображений доступность малярных кистей и валиков означает работу для маляров: если краску было бы необходимо наносить по капельке кончиком иглы, не было бы возможности нанимать маляров для покраски зданий.

Что такое дроны, автономное оружие и роботы-убийцы?

Дроны представляют собой летательные аппараты, которыми удаленно управляют люди; некоторые дроны несут оружие (обычно реактивные ракеты), запускаемые оператором. Автономное оружие - это любое устройство, которое автоматические выбирает и поражает (т. е. пытается разрушить) цель. Современные системы включают стационарные самонаводящиеся пулеметы (используются в корейской демилитаризованной зоне) и различные виды корабельных противоракетных комплексов. Быстро повышающаяся техническая возможность заменить человека-оператора дрона на полностью автоматическую систему привела к появлению летальных автономных комплексов вооружения (LAWS), которые стали субъектом дискуссии на Женевской конференции по разоружению. Термин «робот-убийца» описывает класс вооружений, который может включать средства передвижения на колесах или ногах, а также корабли, летательные аппараты и даже искусственных летающих «насекомых».

Распространенные заблуждения

  • До полностью автономных систем вооружения осталось 20–30 лет. Данное утверждение повторяется во многих статьях о дискуссиях в Женеве по поводу LAWS. Источник этого заблуждения неясен, однако, по-видимому, оно проистекает из переоценки. Технологии развертывания автономных вооружений по большей части готовы к использованию; Министерство обороны Великобритании заявило без лишних деталей, таких как применение в морском бою, что создание полностью автономных вооружений «может быть осуществимым теперь».

Надо ли бояться роботов-убийц, кидающихся на всех или захватывающих власть во всем мире?

Если автономные вооружения будут развернуты, они столкнутся с теми же трудностями, что и обычные солдаты, которым приходится отличать друга от врага, мирных жителей от боевиков. Возможно, что произойдет тактический несчастный случай с гибелью гражданского населения, либо функционирование робота пострадает из-за радиотехнических помех либо кибератак. В свете последней проблемы некоторые военные эксперты предсказывают, что автономные вооружения будут закрытыми системами без электронной связи; с другой стороны, из-за этого будет труднее перехватить управление у автономного оператора, если система станет вести себя некорректно. В обозримом будущем автономные вооружения, вероятно, будут тактическими и станут выполнять задания ограниченного масштаба. Крайне маловероятно, чтобы их программировали для самостоятельной разработки планов глобального масштаба.

Распространенные заблуждения

  • Мы можем просто нажать на выключатель. Выключатель сделает любую автономную систему вооружения уязвимой для кибератак, следовательно, такие каналы связи лучше отключать. Кроме того, если обладающей универсальным интеллектом системе дать задание для выполнения, у нее появится мотивация сопротивляться выключению.

Что такое экзистенциальный риск, связанный с ИИ? Он реален?

Ранние предостережения о риске, исходящем от ИИ, были довольно неопределенными. И.Д. Гуд добавил к своему предсказанию пользы от взрывного развития ИИ оговорку «при условии, что машина достаточно покорна, чтобы рассказать нам, как удержать контроль над собой». Есть общее ощущение, что наличие сверхразумных сущностей на нашей планете может быть причиной для тревоги; с другой стороны, более умные машины, как правило, более полезны, поэтому неочевидно, почему создание гораздо более умных машин обязательно принесет зло.

Тем не менее, доказательство очень простое.

  1. Представьте сверхразумную систему, предназначенную для достижения определенной цели, точно указанной человеком-проектировщиком. Теперь представим, что эта цель не совсем согласуется с ценностями рода людского, определиться с которыми очень трудно (и это в лучшем случае).
  2. Любая достаточно способная разумная система будет стремиться обеспечить непрерывность своего существования, а также захватить физические и компьютерные ресурсы - не ради себя, а для достижения успеха в выполнении задания.

И теперь у нас проблема. По сути это все та же старая история о джинне и лампе, об ученике чародея или царе Мидасе: вы получаете в точности то, что просите, а не то, что подразумеваете. В 1960 г. Норберт Винер, пионер теории автоматического управления, писал: «Если мы используем для достижения своих целей механическое средство, в работу которого не можем эффективно вмешаться, лучше быть совершенно уверенным в том, что цель, заложенная в машину, - эта именно та цель, которую мы действительно желаем». Марвин Минский придумал пример, в котором машину просят вычислить столько знаков числа пи, сколько возможно. Ник Бостром дал пример запроса на массу канцелярских скрепок . Человек интерпретирует эти цели, исходя из общечеловеческих целей, которые в частности подразумевают, что покрытие всей Земли компьютерными серверами или канцелярскими скрепками - это плохое решение. Высокоодаренная сущность, принимающая решения, особенно если благодаря Интернету она имеет доступ ко всей мировой информации, миллиардам экранов и большей части нашей инфраструктуры, может бесповоротно изменить человечество. К счастью, сейчас природа проблемы несколько прояснилась, поэтому можно начать работу над ее решениями.

Распространенные заблуждения

    Сверхразумные машины спонтанно обретают сознание, или же они по природе своей злы и ненавидят людей. Писатели-фантасты склонны делать одно или оба из этих допущений, чтобы создать антагонизм между машинами и людьми. Такие допущения не нужны и не мотивированы.

    Системы ИИ разрабатываем мы, люди, так зачем нам разрушать самих себя? Некоторые защитники ИИ возражают, что поскольку системы ИИ строятся людьми, нет причин предполагать, что когда-нибудь мы построим нечто такое, чьей целью станет уничтожение человечества. Они не ухватывают самой сути, а именно того, что преднамеренный злой замысел со стороны разработчика или агента не является необходимой предпосылкой для существования экзистенциальной угрозы; проблема проистекает из неверного определения целей.

    Этого никогда не случится. См. «Когда системы ИИ станут более разумными, чем люди?»

Почему люди ни с того ни с сего стали беспокоиться об ИИ?

Начиная с 2014 г. СМИ регулярно сообщают об опасениях, высказанных такими хорошо известными фигурами, как Стивен Хокинг, Элон Маск, Стив Возняк и Билл Гейтс. В репортажах обычно цитируются наиболее мрачные и эффектные реплики и опускаются стоящие за ними основания, а также суть опасений, которые близки к описанным в разделе «Что такое экзистенциальный риск, связанный с ИИ?» Во многих случаях опасения основываются на чтении книги Ника Бострома «Искусственный интеллект». Другая причина, породившая теперешнюю волну интереса к данной теме, - это тот факт, что прогресс в разработке ИИ ускоряется. Это ускорение, вероятно, обусловлено комбинацией факторов, в том числе постепенно упрочняющимся теоретическим фундаментом, который связывает различные области разработки ИИ в единое целое, и быстрым ростом коммерческих вложений в исследования ИИ, поскольку продукция академических лабораторий достигла того уровня качества, при котором ее можно применять для разрешения проблем в реальном мире.

Распространенные заблуждения

  • Если люди волнуются, значит, до сверхразумного ИИ рукой подать. Вряд ли найдется исследователь ИИ, который думает, что до сверхразумных машин рукой подать. (См. раздел «Когда системы ИИ станут более разумными, чем люди?») Это не значит, что мы должны ждать до того момента, чтобы воспринимать проблему серьезно! Если мы обнаружим астероид диаметром 10 миль, траектория движения которого пересечется с Землей через 50 лет, разве мы отмахнемся от этой новости со словами: «Я уделю ей внимание, когда до столкновения будет 5 лет?».

Каким будет прогресс ИИ в ближайшие десятилетия?

Весьма вероятно, что области, в которых не нужен универсальный интеллект человеческого уровня, достигнут зрелости и породят надежные высококачественные продукты уже в следующее десятилетие. В эти области входят распознавание речи, извлечение информации для создания простого фактического материала, визуальное распознавание объектов и поведения, роботизированное обращение с повседневными вещами и автономное вождение. Усилия по улучшению качества и расширению границ для систем понимания текста и видео, а также придание домашним роботам большей надежности и общей полезности приведут к системам, проявляющим здравый смысл, связывающим вместе обучение и действие во всех этих модальностях. Специальные системы для приобретения и организации научных знаний, а также для работы со сложными гипотезами, вероятно, сильно повлияют на молекулярную биологию, системную биологию и медицину. Нам следует начать поиски похожих влияний в социальных науках и формировании политики, особенно учитывая массивный рост машиночитаемых данных о человеческой деятельности и потребность в машинах, которые понимали бы человеческие ценности, если такие машины будут надежными и полезными. Публичные и частные источники знаний (системы, которые знают и делают выводы о реальном мире, а не только хранят данных) станут частью общества.

Что такое «сопоставление ценностей»? Какое оно имеет значение?

Сопоставление ценностей - это задача сопоставления ценностей (целей) машин и людей с тем, чтобы оптимальным выбором машины было, грубо говоря, всё, что делает людей наиболее счастливыми. Без такого сопоставления есть немалый риск, что сверхразумные машины выйдут из-под нашего контроля.

Распространенные заблуждения

  • Все, что нам нужно, - это законы робототехники Азимова . Законы Азимова имеют достаточно смысла для человека, чтобы сформировать основу различных сюжетов рассказов, однако без значительного дальнейшего уточнения для робота они практически не несут полезной информации. Основа законов в виде набора правил, а не функции полезности, создает проблемы: их лексикографическая структура (т. е. тот, факт, что любой вред людям всегда более важен, чем весь вред роботам) означает, что нет никакой неопределенности и невозможно компромиссное решение. Так, роботу придется спрыгнуть с обрыва (и разрушить себя), чтобы поймать комара, который мог бы когда-нибудь в будущем укусить человека. Робот должен запереть дверь в автомобиль, потому что когда человек садится в машину, риск вреда для него повышается. Наконец, при подходе, направленном на максимизацию полезности для человека, нет необходимости в третьем законе (самосохранение робота), поскольку робот, который не поддерживает собственное существование, не может внести вклад в полезность для человека и, конечно, разочарует своего хозяина.

Что сообщество, занимающееся ИИ, предпринимает в связи с экзистенциальным риском?

Большинство дискуссий об экзистенциальном риске, исходящем от ИИ, проходило без основной части сообщества, занимающегося ИИ; поначалу это привело к преимущественно негативным реакциям со стороны исследователей в области ИИ. В 2008 г. Американская ассоциация искусственного интеллекта (AAAI) сформировала группу для изучения данной проблемы. В промежуточном отчете группы было отмечено существование некоторых долговременных вопросов, однако приуменьшено значение мнения о том, что ИИ представляет собой риск для человечества. Позднее, в январе 2015 г. в Пуэрто-Рико была проведена конференция , спонсированная Институтом будущего жизни, которая привела к публикации открытого письма , которое подписали присутствовавшие, а затем еще 6000 человек. В письме призывалось сосредоточить особое внимание исследований на данной проблеме, а также предлагался более подробный план исследований . Вскоре Элон Маск основал грант в размере 10 млн долларов на исследования в данной области. Кроме того, Эрик Хорвиц спонсировал долгосрочное исследование , которое, как ожидается, будет отслеживать этот вопрос и, если потребуется, давать рекомендации. пять крупнейших технологических компаний сформировали Партнерство по вопросам ИИ , чтобы решать вопросы как краткосрочной, так и долгосрочной перспективы, касающиеся этики и безопасности ИИ. Наконец, AAAI сформировала постоянный комитет по этическим проблемам ИИ.

Распространенные заблуждения

  • Регулировать или контролировать исследования невозможно. Некоторые утверждают, что невозможно избежать отрицательных последствий, поскольку прогресс исследований не остановить и невозможно регулировать. На самом деле, это заявление - ложь: Асиломарская конференция 1975 г. по рекомбинантной ДНК успешно наложила добровольный мораторий на эксперименты, цель которых заключалась в создании наследуемых генетических модификаций у людей; в наши дни этот мораторий не только действует, но и стал международной нормой. Кроме того, если исследования по созданию ИИ человеческого уровня будут протекать бесконтрольно, что вполне может случиться, еще важнее начать серьезное изучение методов, гарантирующих, что системы ИИ останутся под нашим контролем.

Чем я могу помочь?

Если вы исследователь, занимающийся ИИ (или экономист, специалист по этике, политолог, футурист или юрист, интересующийся этими вопросами), то для вас есть идеи и темы в программе исследований, берущей начало на конференции 2015 в Пуэрто-Рико. Вероятно, будут проводиться воркшопы, связанные с крупными конференциями по ИИ, осенним и весенним симпозиумами AAAI и т. п. Больше информации можно найти на веб-сайтах FHI, CSER, FLI MIRI и Center for Human-Compatible AI .

Распространенные заблуждения

  • Сделать ничего нельзя: эти вещи случатся, и никакие действия с нашей стороны не изменят будущее. Ничто не может быть дальше от истины. Мы не можем предвидеть будущее, потому что мы его создаем. Это коллективный выбор.

Сергей Скептик, Pion

Искусственный интеллект (ИИ) - тема, которая уже давно не сходит со страниц научно-популярных журналов и постоянно затрагивается в кино и книгах. Чем больше специалисты развивают эту область науки, тем большими мифами она покрывается.

Развитие и будущее искусственного интеллекта волнует и тех, кто стоит у руля государства. Не так давно президент РФ Владимир Путин посетил офис Яндекса в день 20-летия компании, где ему объяснили, когда ИИ превзойдет человеческий интеллект.

Все, кто хоть немного проникает в суть потенциала искусственного интеллекта, понимают, что оставлять без внимания эту тему нельзя. Это не только важная тема для обсуждения, но и, наверное, одна из самых значимых в контексте будущего.

Словом, заметные успехи есть и у нас в стране.

Чем быстрее развиваются технологии искусственного интеллекта, тем сильнее людей захватывает опасение - как быстро они останутся без работы. Все действительно так плохо?

И да, и нет. Человечество уже несколько раз сталкивалось с возникновением технологий, революционно изменивших всю производственную сферу.

Так было с паровым двигателем в эпоху промышленной революции практически уничтожившим многие профессии (в основном, связанные с примитивным физическим трудом), так было с электронными вычислительными машинами, которые заменили человека в задачах, основанных на поточных математических расчётах.

В XV-XVIII вв.еках, когда в Англии «овцы съели людей», социальные последствия были действительно катастрофическими. Англия потеряла по разным оценкам от 7 до 30% своего населения. Властная элита того времени была всерьёз озабочена тем, куда девать лишних людей. Джонатан Свифт откликнулся на эти искания юмористическим памфлетом, в котором предлагал употреблять детей бедняков в пищу.

Однако в наши дни мы видим, что на смену вымершим профессиям пришли новые, и население Земли куда больше, чем в XVIII веке. В XX веке последствия автоматизации были уже не столь катастрофичны с социальной точки зрения. Однако недооценивать опасность всё-таки не стоит.

«Через 30 лет роботы смогут делать практически всё, что умеют делать люди, - такой прогноз дал Моше Варди (Moshe Vardi), профессор вычислительной инженерии и директор Института информационных технологий Кена Кеннеди (Ken Kennedy Institute for Information Technology) при Университете Райса (William Marsh Rice University). Это приведёт к тому, что более 50% жителей Земли станут безработными».

Роботы забирают работы

На днях председатель комитета Госдумы по информационной политике, информационных технологиям и связи Леонид Левин заявил, что для России является важной проблема вытеснения рабочей силы искусственным интеллектом.

Рано или поздно людей заменят автоматизированной системой, и на рынок выплеснется 2% работоспособного населения страны. Именно поэтому о том, как их трудоустроить, тех, кто потеряет работу вследствие развития цифровых технологий, нужно думать уже сейчас сказал Левин.

По мнению председателя, уже в скором будущем мы столкнемся с ростом безработицы. Но действительно ли роботы «отберут» наши рабочие места и стоит ли беспокоиться по этому поводу рассказал «Ридусу» специалист по машинному обучению Сергей Марков.

Сергей, даже сейчас уже есть «мертвые профессии», которые не требуют человеческого труда, хотя, казалось бы, лет 10 назад никто и не думал, что, например, кондуктора скоро станут ненужными. А какие еще профессии вытеснят технологии?

Мы приближаемся к тому времени, когда машины превзойдут людей почти в любом деле. Я считаю, что обществу нужно посмотреть в лицо этой проблеме до того, как она встанет во весь рост. Если машины будут способны делать почти всё, что умеют люди, что тем останется делать? сказал Моше Варди, профессор вычислительной инженерии и директор Института информационных технологий Кена Кеннеди при Университете Райса.

Долгое время на пути автоматизации стояли технологические ограничения - машины не могли распознавать образы и речь, не могли говорить, не могли достаточно хорошо понимать смысл высказываний на естественном языке, не имели достаточно данных для того, чтобы научиться многим привычным для человека вещам.

Благодаря последним достижениям в сфере искусственного интеллекта многие из этих ограничений фактически оказались сняты. Кроме того, многие профессии сами претерпели трансформацию, что сделало их более удобными для автоматизации.

Например, современный офисный клерк ведёт переписку не в бумажном, а в электронном виде, бухгалтер выполняет проводки не на бумаге, а в бухгалтерской программе, оператор станка управляет станком зачастую не при помощи рукоятей, а при помощи управляющей программы. Поэтому сейчас задача автоматизации во многих профессиях перестала быть научной и стала чисто инженерной.

Правда пока что производственная сфера, связанная с ИИ, скорее создаёт рабочие места - нужны специалисты в области машинного обучения и подготовки данных, сотрудники для разметки обучающих массивов, специалисты по внедрению и т. д. Но в какой-то момент электроовцы определённо начнут есть людей, и о последствиях нужно позаботиться уже сейчас.

При этом важно понимать, что остановить технический прогресс нельзя, и попытка это сделать обернётся куда более катастрофичными последствиями.

Мы сможем когда-нибудь полностью довериться роботам (ИИ), или все-таки в любом деле должен быть человеческий фактор?

У этого вопроса есть несколько аспектов. С одной стороны, люди в прошлом с опаской относились практически к любой технике. Первый лифт, первый автомобиль, первый поезд или самолёт - всё это когда-то было непривычным, и многим казалось опасным. Да во многом опасным и было - техногенные катастрофы унесли немало жизней.

И тем не менее в наши дни все эти вещи стали привычными и уже не вызывают сильного страха. В этом смысле - наши потомки будут относиться к системам ИИ более спокойно. Люди порой склонны мистифицировать вещи, которые им непонятны. Дикарь думает, что в паровозе живёт злой дух, а современный обыватель думает, что наши системы ИИ обладают сознанием, хотя это далеко не так.

С другой стороны, я не думаю, что универсальные системы ИИ когда-либо станут частью нашей производственной сферы. На мой взгляд будущее скорее за синтетическими системами - то есть за объединением человека и машины в единый организм. В этом смысле искусственным интеллектом будущего будет усовершенствованный человеческий интеллект.

Кстати говоря, человеческий интеллект тоже не совсем корректно называть естественным. Ребёнок от рождения не обладает интеллектом, всему его учит общество, родители, окружающая среда. В этом смысле мы с вами все по сути дела «искусственные интеллекты», и наши страхи, связанные с ИИ, во многом являются страхами перед самими собой.

Последнее время многие ученые, например, Стивен Хокинг , Билл Гейтс или тот же Илон Маск , начали паниковать, что ИИ обрекает человечество на гибель, а будущее они видят какой-то антиутопией. Стоит ли воспринимать такие прогнозы всерьез?

Честно говоря, я бы не спешил всерьёз пугаться этих заявлений. Стивен Хокинг, безусловно, не является специалистом в области ИИ, как, в общем-то, и Илон Маск.

На другой чаше весов высказывания таких людей, как например, Эндрю Ын - американский учёный в области информатики, доцент Стэнфордского университета, исследователь робототехники и машинного обучения, ведущий специалист лаборатории искусственного интеллекта китайской корпорации Baidu .

Ын, говоря о проблеме безопасности ИИ, сравнивает её с проблемой перенаселения Марса - конечно, мы когда-нибудь колонизируем Марс, и тогда, возможно, в какой-то момент там возникнет проблема перенаселения. Но стоит ли заниматься ей сегодня?

Марк Цукерберг также довольно скептически отнёсся к заявлениям Маска. «Искусственный интеллект сделает в будущем нашу жизнь лучше, а предсказывать конец света очень безответственно», - заявил он.

Лично я думаю, что высказывания Маска стоит рассматривать в прагматическом ключе - Маск хочет застолбить эту тему и в идеале получить от государства средства для её разработки.

Неужели все так безоблачно и не о чем беспокоиться?

Реальные опасности, связанные с развитием ИИ, лежат, на мой взгляд, совсем в иной плоскости, чем об этом принято думать. Главные риски связаны не с тем, что мы своими создадим «Скайнет», который поработит человечество. Риски от внедрения технологий ИИ и машинного обучения куда более прозаичны.

Доверяя решение важных вопросов тем или иным математическим моделям, мы можем пострадать от ошибок, допущенных при их разработке. Искусственный интеллект, воспроизводящий действия людей-экспертов, унаследует их ошибки и предубеждения. Недоработки в системах управления производством или транспортом могут привести к катастрофам.

Вмешательство злоумышленников в работу жизненно важных систем в условиях тотальной автоматизации может повлечь опасные последствия. Чем сложнее системы, тем больше в них может быть потенциальных уязвимостей, в том числе связанных со спецификой тех или иных алгоритмов искусственного интеллекта.

Безусловно, для управления этими рисками следует создавать законодательную базу, разумные регламенты безопасности, специальные методы для выявления уязвимостей. Одни системы ИИ будут использоваться для контроля других. Возможно, код жизненно важных систем будет обязателен к публикации для независимого аудита. Словом, специалистам в этой сфере предстоит ещё много работы.

Будущее, которое мы так долго ждали, о котором с интересом читали в научной литературе и которое представляли в сюжетах фантастических фильмов, уже наступило. Что же будет дальше? В этом материале мы публикуем мнение визионеров лаборатории Microsoft Research о текущем положении дел в сфере развития технологий искусственного интеллекта (ИИ) и о его трендах на ближайшие несколько лет.

Ждем появления социально-культурного искусственного интеллекта

В следующем году и ближайшие несколько лет очередной стимул развития получат технологии лингвистической обработки. Так, в частности, функционал инструментов распознавания речи будет пополняться все новыми языками. Появится больше систем, позволяющих понимать, обрабатывать и генерировать языки. Эти решения откроют пользователю новые возможности легко переключаться с одного языка на другой, более того, возможны даже будут мультиязычные беседы.

В перспективе ближайших нескольких лет появятся системы искусственного интеллекта, которые смогут без труда общаться с людьми и даже будут адаптироваться к различным социальным ситуациям, будь то переговоры, жаркие дискуссии или философские рассуждения. Поэтому в следующие 10 лет нам стоит ожидать появления такого явления, как социально-культурный искусственный интеллект.

Этика машинного интеллекта

Мы научились создавать машины, которые способны взаимодействовать с человеком, понимать его потребности и помогать в решении повседневных задач. Алгоритмы глубинного машинного обучения сегодня способны генерировать результат, который нужен человеку, обнажая зачастую то, что в приличном обществе принято осуждать. Другими словами, мы научили искусственный интеллект пониманию и удовлетворению ежедневных потребностей человека, но пока не научили хорошим манерам и этике . Значит ли это, что дисциплины морали и нравственности не являются приоритетом современного человека, его ежедневной необходимостью? Совсем нет.

Поэтому задача следующих ближайших лет – разработать правила для ИИ и алгоритмы машинного обучения, исключающие воспроизводство результатов, содержащих дискриминационные и пренебрегающие этическими нормами данные. Прорывом в этом направлении станет появление алгоритмов, которые являются справедливыми, ответственными и более устойчивыми к манипуляциям с вводом ложных данных.

Фото- и видеоконтент научатся искать информацию

В следующем году продолжится совершенствование алгоритмов машинного интеллекта в области поиска. Уже через несколько лет нам стоит ожидать трансформации логики работы всего направления. Будет появляться все больше систем, способных работать под командным голосовым управлением и распознавать речевые запросы, а также запросы, состоящие из картинок , звука, видео, геолокационных и других метаданных. Это приведет к тому, что поисковые запросы пользователей будут все более ситуативными, в рамках существующего контекста (местоположение, доступность информации, визуальное или звуковое окружение и т. п.). Эта тенденция будет ускоряться.

Мир на пороге появления новых профессий

Оператор машинного интеллекта уже существующая реальность. В ближайшие несколько лет таких необычных профессий станет больше . По данным исследовательского центра Microsoft, к 2027 году треть работоспособного населения будет занято в сфере услуг, которые будут оказывать системы на базе искусственного интеллекта (например, налоговое консультирование, поддержка здравоохранения и т. п.). Это говорит о том, что в искусственном интеллекте – источник повышения рабочей силы.

Интернет вещей

В 2017 году мы увидим первые решения на базе интернета вещей для сельского хозяйства. Такие решения будут строиться на объединении функциональности компьютерного зрения и облачных технологий. Это позволит фермерам диагностировать, контролировать, анализировать, планировать состояние своих хозяйств на всех этапах производства. Фермеры с помощью искусственного интеллекта смогут поддерживать рентабельность своих производств независимо от изменения климата, засухи и стихийных бедствий.

Будущее пищевой промышленности зависит от нашей способности сохранить и улучшить использование основных ресурсов нашей планеты, уменьшить истощение почвы путем перехода от традиционной сельскохозяйственной практики к альтернативной с малыми энергозатратами. Для окружающей среды и экологии упор будет сделан на сохранение наших лесов с помощью измерительных технологий.

Компьютерное зрение

В следующем году будет продолжен быстрый прогресс в области компьютерного зрения на основе алгоритмов глубинного машинного обучения. Мы уже можем наблюдать, как запущенный недавно проект Iceberg позволяет по-новому взглянуть на хоккейные матчи. Алгоритмы компьютерного зрения предоставляют возможность обрабатывать объекты на видеокадрах в реальном времени для анализа и принятия решений – в данном случае со стороны тренера играющей команды. А родоначальник «уберизации», компания Uber, использует когнитивные сервисы для верификации водителя в автомобиле, сравнивая фотографию, сделанную на телефон, с информацией из зарегистрированного профиля. Достоверность водителя повышает безопасность поездок, лояльность пользователей и в конечном итоге напрямую влияет на растущий бизнес компании.

К 2027 году способность компьютеров «видеть» будет повсеместной, так как мы будем иметь высокоразвитые устройства обработки изображений, мощные вычислительные ресурсы и комбинированные методы обучения машинного интеллекта. Достижения этих методов приведут к расширению отраслей применения этой технологии: от производства и здравоохранения до финансов и безопасности.

Цифровая трансформация традиционных отраслей

Эффективность традиционного бизнеса регулируется за счет роста продаж или сокращения издержек производства. Искусственный интеллект позволяет по-новому взглянуть на традиционные бизнес-задачи, видоизменить бизнес-модели и обнаружить ранее скрытый экономический потенциал целых отраслей. Мы это видели и раньше на примере так называемой «уберизации».

Сбор, обработка и анализ больших данных с помощью алгоритмов машинного обучения позволяет компаниям экономить миллионы долларов ежегодно, демонстрируя себе и рынку потенциал решений на базе искусственного интеллекта для разных отраслей в ближайшем будущем. Речь идет о внедрении систем, позволяющих компаниям принимать взвешенные, долгосрочные бизнес-решения и своевременно реагировать на ситуацию в отрасли в зависимости от экономического, физического и географического контекста.

Алгоритмы искусственного интеллекта доступны многие десятилетия, но именно сейчас вычислительные облачные мощности и бизнес-ценность позволили им стать в центр ежедневных переговоров.

Самоуправляемые автомобили, решения для борьбы с раковыми опухолями, прогнозирование поведения рынков и многое другое – все это открывает новые возможности для бизнеса каждый день. Еще никогда такие сложные технологии не были доступны каждому, а значит, у нас есть все шансы застать золотой век четвертой индустриальной революции – век искусственного интеллекта.

Правообладатель иллюстрации Thinkstock Image caption Симбиоз человека и машины - один из путей развития человечества

Умные машины научились блефовать, обыгрывать профессионалов в шахматы или Го, переводить и распознавать человеческий голос. Каждую неделю мы узнаем о все новых подвигах компьютерных программ, уже умеющих ставить медицинские диагнозы, рисовать не хуже Рембрандта, петь или генерировать текст. Стоит ли человеку опасаться искусственного интеллекта?

По-настоящему "горячей" тема искусственного интеллекта (ИИ/AI) стала в последние несколько лет. Ученые связывают это с бурным развитием нейронных сетей (одно из направлений исследований в области искусственного интеллекта), которое, в свою очередь, стало возможным с появлением мощных компьютеров.

"С начала 2010-х годов под влиянием впечатляющих успехов, полученных в результате применения многослойных нейронных сетей (в первую очередь сверточных и рекуррентных), эта область привлекла серьезное внимание как со стороны ученых и инженеров, так и со стороны инвесторов", - комментирует автор одной из российских шахматных программ, специалист по методам машинного обучения Сергей Марков.

Ученое сообщество может спорить о сроках появления умных машин, но сходится в одном: развитие технологий окажет безусловное влияние на общество, экономику и отношения между людьми в будущем. Уже сейчас раздаются призывы обдумать этические принципы разработки искусственного интеллекта, удостоверившись в том, что искусственный интеллект развивается в безопасном для людей направлении.

Этот м атериал подготовлен в качестве ответа на вопрос ы , присланны е нашими читателями о научных достижениях . Задать свои вопросы по другим темам вы можете по этим ссылкам ( , ).

Экономический эффект и влияние на рынок труда

Научная фантастика и Голливуд сформировали представление об "искусственном интеллекте" как о следующей форме жизни на планете, которая поработит человечество в Матрице или организует ему ядерный Судный день. Выживших добьет Терминатор.

Правообладатель иллюстрации Getty Images Image caption Умрет ли человечество от Skynet?

В действительности, несмотря на последние достижения в области искусственного интеллекта, до появления разумных машиносуществ еще далеко, признают ученые и специалисты. И те, и другие, впрочем, советуют на некоторые аспекты обратить внимание уже сейчас.

По оценкам исследовательской организации McKinsey Global Institute, в ближайшие десять лет новые технологии радикально изменят рынок труда на планете, что позволит сэкономить порядка 50 трлн долларов.

Изменения коснутся сотен миллионов рабочих мест. Люди все больше и больше будут перекладывать часть своих служебных заданий и многие рутинные задачи на машину, что позволит им сосредоточиться на творческой работе.

"С некоторой точки зрения у человечества в целом есть важная и интересная задача - развиваться каждому конкретному индивидууму гораздо быстрее, чем человечество развивает системы искусственного интеллекта", - считает эксперт, директор по распространению технологий "Яндекса" Григорий Бакунов.

Но вместе с автоматизацией неминуемо пострадают менее квалифицированные кадры, и уже сейчас необходимо задуматься, как их защитить, переучить и подготовить к новой жизни.

Пострадать, как показывает практика, могут не только синие воротнички, но и работники умственного труда. Несколько дней назад Goldman Sachs заменил команду из 600 трейдеров на двух человек и автоматизированные программы алгоритмического трейдинга, для обслуживания которых были наняты 200 разработчиков-программистов.

Правообладатель иллюстрации Thinkstock Image caption Многие задачи вскоре станут по силам роботизированным системам, которые последовательно начнут заменять людей

Искусственный интеллект сам по себе не тождественен автоматизации процессов, но развитие ИИ приведет к тому, что все больше задач будет по силам компьютерной программе.

Среди вариантов решения проблемы вытеснения человека машиной на рынке труда, как указывает Аллисон Дютман, координатор программ Foresight Institute - некоммерческой организации, базирующейся в Силиконовой долине для продвижения новых технологий, - введение понятия "универсальный базовый доход", который бы получал каждый житель вне зависимости от уровня дохода и занятости. Подобный доход финансировался бы за счет так называемого инновационного налога Land Value Tax, введение которого сейчас активно обсуждается в Силиконовой долине.

Личность ли искусственный интеллект?

Является ли роботизированная система личностью? Может ли умный компьютер голосовать? Какого он пола? Отношения человека и умной машины уже сейчас обсуждают депутаты Европарламента, задаваясь вопросом, следует ли наделять будущих роботом статусом "электронной личности".

Как указывает Дютман, люди нехотя делятся правами с теми, кто им непонятен, а значит будут сопротивляться "очеловечиванию" ИИ.

Правообладатель иллюстрации AFP Image caption Человека и машину разделяет главное - способность думать

"Принимая во внимание, как долго человечество шло к тому, чтобы наделить равными правами всех людей, вне зависимости от цвета их кожи, расы или гендера, можно уже сейчас предположить, что и машины они не сходу не признают равными.

Вместе с этическими появляются и юридические тонкости: кто возьмет на себя ответственность в случае аварии беспилотного автомобиля или поломки умного медицинского устройства - и нравственные вопросы: стоит ли развивать беспилотное оружие, способное действовать без ведома человека?

Третья этическая головоломка обсуждается чаще других и волнует человечество гораздо больше: что теоретически может сделать с человечеством суперинтеллект, настоящая умная машина?

Научить ИИ этике

Специалисты в области развития ИИ признают: пусть не в ближайшие 20-30 лет, но человечество все же доживет до появления настоящего искусственного интеллекта, который будет умнее своего создателя.

"Последний бастион будет взят тогда, когда будет создан так называемый "сильный ИИ" (Strong AI, Artificial General Intelligence), то есть такой ИИ, который будет способен решать неопределенно широкий спектр интеллектуальных задач", - говорит Сергей Марков.

А главное, такой ИИ сможет самостоятельно думать.

Исследованием угроз, которые таит ИИ, а также этическими проблемами, связанными с новыми технологиями, занимаются многие институты, в числе которых организация Future of Life Institute (Институт будущего жизни), Foresight Institute, Future of Humanity Institute, OpenAI и другие.

Решение Аллисон Дютман из Foresight Institute - дать компьютеру прочитать всю научную литературу, научные статьи, поднимающие вопрос об этике, и сделать эту информацию основой для его будущих решений.

Что такое Нейронные сети и какое у них будущее?

Большинство экспертов связывают прогресс в развитии ИИ с развитием нейронных сетей.

Нейронные сети - это одно из направлений исследований в области искусственного интеллекта, основанное на моделировании биологических процессов, которые происходят в человеческом мозгу.

Именно им мы обязаны появлению впечатляющих результатов в распознавании речи и изображений, постановке медицинских диагнозов, переводе текста и создании изображений, генерации речи и музыкальной композиции.

Правообладатель иллюстрации iStock Image caption Именно с развитием нейронных систем связывают ученые развитие искусственного интеллекта

На сегодня, как признают специалисты, нейронные сети признаны одним из лучших алгоритмов машинного обучения, а решения на их основе показывают на данный момент самые выдающиеся результаты.

И это несмотря на то, что современные нейронные сети устроены в полторы тысячи раз проще, чем головной мозг крысы.

"Пока что создаваемые нами нейронные сети относительно невелики по сравнению, скажем, с нейронной сетью человеческого мозга и, кроме того, они представляют собой весьма упрощенный аналог естественных нейронных сетей. Поэтому пока что при помощи нейронных сетей мы решаем в основном сугубо прикладные задачи", - рассказывает Сергей Марков.

Сейчас создаются специализированные процессоры для обучения таких сетей (так называемые нейроморфические процессоры), которые позволят увеличить скорость вычислений на несколько порядков.

Разработчики не просто заняты сейчас увеличением количества нейронов в сети, но и изменением конструкции сетей. "Сложные системы конфигурации сетей - то, с чем сейчас производится наибольшее число экспериментов", - рассказывает Григорий Бакунов.

Правообладатель иллюстрации iStock Image caption "Умных" помощников человека в ближайшее время станет больше - микросенсоры в стене, сенсор размером с пуговицу, оповещающий человека в случае опасности

А тот факт, что такие системы стали сравнительно доступными большому числу рядовых разработчиков, привел к появлению стартапов, экспериментирующих с нейронными сетями, например Prisma (приложение позволяет обрабатывать фотографии, превращая их в стилизации картин известных художников) и Mubert (онлайн-композитор электронной музыки).

Что нас ждет в ближайшее время

Как прогнозирует профессор Университетского колледжа Лондона и Principal Scientist Nokia Bell Labs Ник Лейн, человека будут окружать еще больше "умных вещей". Они станут компактнее и эффективнее.

Профессор приводит такой пример: если раньше встроенный в стену сенсор мог лишь осознавать, что кто-то прошел мимо, то в будущем он будет не только знать, кто конкретно прошел, но и как ведет себя человек, не нуждается ли в чем, не представляет ли он угрозу для себя или окружающих.

Сенсор размером с пуговицу сможет оповещать человека в случае опасности.

С профессором согласен и Григорий Бакунов из "Яндекса": "В ближайшее время нас ждет бум развития узких искусственных интеллектов, которые помогают решать какую-то одну довольно простую задачу, но которую они будут решать даже лучше, чем человек".

Правообладатель иллюстрации iStock Image caption Все больше появляется этических вопросов, связанных с развитием ИИ

"Наиболее вероятным путем развития нашей цивилизации является путь синтеза человека и машины: палка, одежда, автомобиль, мобильный телефон, кардиостимулятор или кохлеарный имплантат - по мере развития наши инструменты все более и более напоминают продолжение наших тел. Уже завтра машины смогут получать от человека мысленные команды, воспринимать мысленно формируемые визуальные образы, передавать информацию непосредственно в мозг - такие проекты уже сейчас существуют за стенами наиболее продвинутых технологических лабораторий", - подытоживает Сергей Марков.

Журналисты пока еще нужны?

Газета Financial Times в прошлом году провела довольно рискованный эксперимент, одновременно поставив задачу написать текст своему профильному корреспонденту и умной программе по имени Эмма. Обе статьи затем должен был прочитать редактор Financial Times и угадать, за какой из двух заметок стоит журналист, а за какой компьютер.

Перед этим своеобразным "краш-тестом" корреспондент Financial Times признавалась: "Я думаю, программа точно справится с задачей быстрее меня. Но, надеюсь, я все-таки сделаю это лучше".

Так и случилось: Эмма действительно оказалась быстрее - программа сгенерировала текст на основе статистики об уровне безработицы в Британии за 12 минут. Журналистке потребовалось 35 минут. И, как она сама впоследствии признавалась, Эмма превзошла ее ожидания. Программа не только умело обращалась с фактами, но и поставила новость в контекст, предположив, как возможный "брексит" (дело было в мае 2016 года, до референдума о выходе Британии из ЕС) может изменить ситуацию.

Правообладатель иллюстрации Thinkstock Image caption Заменят ли людей роботизированные системы? Лет 50 у человечества в запасе есть, успокаивают специалисты

Но кое-что Эмма сделала все же хуже журналистки. "Статья Эммы была написана немного более корявым языком. Но главное, в ней было очень много цифр, - признавался редактор FT. - А, пожалуй, главное, что мы тут пытаемся делать, так это выбирать только действительно важные цифры".

Эмма - продукт стартапа Stealth. В компании говорят, что у Эммы есть команда живых помощников, но утверждают, что все, что она пишет или делает, - продукт исключительно ее "мозгов".

И все-таки - надо ли бояться ИИ?

Многие, если не все специалисты, задействованные на сегодняшний день в разработке систем искусственного интеллекта, охотно признают, что ИИ не скоро сделает людей ненужными. Именно потому, что искусственный интеллект еще не настолько умен. Главное, чего ему на сегодняшний день не хватает, - автономной возможности думать.

"Сейчас бояться ИИ ни в каком виде не стоит. Можно подождать лет 30-40, пока действительно какие-то радикальные изменения произойдут", - считает Бакунов.

Но кое-что уже происходит: понемногу стирается грань между работой или задачей, выполненной человеком, и задачей, выполненной машиной. Как объясняют специалисты, уже сейчас порой бывает сложно понять, кто сидит внутри системы - человек или машина.

"Нет критериев, когда мы сможем понять, что внутри машины зародилось сознание", - задается вопросом Бакунов.

Человек станет скрепкой?

Известный адепт алармистской точки зрения, в рамках которой ужасы, описанные в Терминаторе, могут стать реальностью, - философ Ник Бостром - придерживается мнения, что достигший интеллектуального уровня человека ИИ способен будет уничтожить человечество.

Правообладатель иллюстрации Getty Images Image caption Станет ли описанное в фильме нашей повседневной реальностью?

Бостром объясняет на примере скрепок: вы ставите перед искусственным интеллектом задачу делать скрепки, как можно больше и лучше. ИИ в какой-то момент понимает, что человек представляет угрозу, потому что может выключить компьютер, что будет противоречить задаче делать как можно больше скрепок. В случае, если человек не представляет угрозу, ИИ решает, что человеческие тела состоят из атомов, которые можно использовать для производства отличных скрепок. Итог - компьютер изведет человечество на скрепки.

Такой сценарий многим кажется преувеличением. По мнению Сергея Маркова, например, "высокая эффективность выполнения нелепой цели несовместима с нелепостью этой цели - грубо говоря, ИИ, способный переделать весь мир в скрепки, будет неизбежно достаточно умен для того, чтобы отказаться от такой цели".

Искусственный интеллект как золотая рыбка

Британский специалист в области искусственного интеллекта, профессор когнитивной науки в Университете Сассекса Маргарет Боден относится к утверждениям о скором пришествии умных машин скептически.

Правообладатель иллюстрации Getty Images Image caption В мае 1997 года компьютер Deep Blue II впервые выиграл матч у Гарри Каспарова

Профессор приводит пример "золотой рыбки", когда в обмен на свободу рыбак загадывает три желания. Одно из желаний - вернуть сына с войны, второе - 50 тысяч долларов и третье - возможность наутро загадать еще одно желание.

В тот же вечер в дом рыбака постучали. Сына вернули с войны - в гробу. Рыбак получил страховку в 50 тысяч долларов.

"Замените в этой притче рыбку на ИИ, и все станет ясно - объясняет Боден. - Ах, да, на следующий день рыбак воспользовался третьим желанием и - отменил предыдущие два".

Возможен ли перенос сознания в машину?

Сергей Марков:

"Если говорить о возможности полного переноса сознания, то современными предшественниками такой технологии будущего являются проекты, подобные Blue Brain, направленные на создание действующих электронных аналогов мозга, а также проекты, направленные на создание интерфейсов мозг-машина (BCI) - аппараты для протезирования потерянного зрения, слуха, замены утраченных конечностей, даже частей мозга.

Правообладатель иллюстрации Science Photo Library Image caption Цель специалистов в области ИИ - создать "сильный искусственный интеллект", который был бы способен решать широкий спектр задач

Очень интересным и перспективным направлением является оптогенетика (в принципе для сопряжения мозга и машины можно менять не только машины, но и саму нервную ткань, создавая в ней искусственные фоторецепторы).

Когда будет решен широкий спектр инженерных задач в рамках таких частных проектов, я думаю, что задача переноса сознания станет вполне разрешимой. Уже сейчас мечтатели предлагают гипотетические схемы для осуществления подобного проекта.

Например, Ян Корчмарюк, предложивший в свое время название "сеттлеретика" для направления исследований, связанных с переносом сознания, считает, что наиболее перспективной схемой является использование специализированных нанороботов, внедряемых в нейроны человеческого мозга. Впрочем, для успешного воплощения подобной схемы необходимо решить целый ряд сложных инженерных проблем".



Рассказать друзьям