Пять дерзких проектов на 2018 год в контексте развития искусственного интеллекта

Несмотря на всю шумиху вокруг роботов-убийц, 2017 год был ознаменован достаточно значительными успехами в области искусственного интеллекта (ИИ). Бот по имени Либратус (Libratus), например, обыграл в покер лучших игроков мира. Что же касается практических достижений, машинное обучение помогло повысить урожайность и расширить доступ населения к медицинским услугам.

Но, с другой стороны, если вы совсем недавно разговаривали с голосовыми помощниками Siri или Alexa, то вы знаете, что вопреки всем слухам и переживаниям миллиардеров, существует множество вещей, которых искусственный интеллект не понимает или не может сделать. Рассмотрим пять злободневных проблем, над которыми ученым придется попотеть в следующем году.

Значение наших слов

Машины как никогда хороши в работе с текстом и языком. Facebook может читать вслух  описание изображений для людей с нарушением зрения. Google неплохо справляется с предложением лаконичных ответов на электронные письма. Однако программы все же не могут понять значение наших слов и идей, которыми мы с ними делимся. «Мы можем по-разному сочетать известные нам концепции и применять их в новых ситуациях, – объясняет профессор Портлендского государственного университета Мелани Митчелл (Melanie Mitchell). – Искусственному интеллекту и системам машинного обучения это не под силу».

Она также говорит, что сегодняшнее программное обеспечение столкнулось со «смысловым барьером», который был впервые описан математиком Джан-Карлом Рота. Некоторые ведущие научные группы, изучающие искусственный интеллект, всеми силами пытаются его преодолеть.

Одно из заданий, которое ставят перед собой ученые, состоит в том, чтобы обучить машину основам здравого смысла и дать ей понимания физического мира, который обуславливает наше мышление. Исследователи компании Facebook пытаются научить программы понимать реальный мир, например, путем просмотра разнообразных видеороликов. Другие работают над тем, чтобы роботы могли имитировать то, что мы можем делать, имея наши знания о мире. Google разрабатывает программы, пытающиеся разбираться в метафорах. А Мелани Митчелл в это время экспериментирует с системами, которые должны интерпретировать то, что изображено на фотографиях, при помощи аналогий и базы концепций о вселенной.

Преодоление реальности, препятствующей революции роботов

Аппаратная часть роботов значительно улучшилась. Сегодня за 500 долларов вы можете купить себе дрон с HD-камерой размером с ладонь. Роботы, которые могут носить коробки и ходить на двух ногах, также стали лучше. Почему же мы тогда не окружены суетящимися механическими помощниками? Потому что современным роботам не хватает мозгов, которые б соответствовали их утонченному дизайну.

Чтобы робот выполнял все, что от него требуется, его необходимо запрограммировать на определенное задание. Путем проб и ошибок он может научиться поднимать предметы и совершать другие подобные действия. Но этот процесс довольно медленный. Одним из способов обойти эти трудности является обучение роботов в виртуальном пространстве и использование этих добытых с большим трудом знаний на практике. Однако надежды, возложенные на такой подход, разбиваются о суровую действительность, поскольку навыки, приобретенные роботом в виртуальном мире, не всегда работают в физическом.

Но эта проблема тоже не вечна. В октябре Google представил многообещающие результаты экспериментов, при которых виртуальные и реальные роботизированные руки поднимали различные объекты, в том числе такие мелкие предметы, как игрушки и расчески.

В дальнейшем развитии этой области заинтересованы также люди, стремящиеся создать автономные транспортные средства. Компании, участвующие в гонке роботизации процесса вождения, смогут выпустить виртуальные автомобили на смоделированные улицы, чтобы сократить временные и денежные затраты на их тестирование в условиях реальных дорог. Крис Урмсон (Chris Urmson), генеральный директор стартапа Aurora, занимающегося разработкой беспилотных технологий, говорит, что предоставление возможности проведения виртуальных испытаний является одним из приоритетов его команды. «Хотелось бы уже где-то через год попробовать применить этот метод для ускорения процесса обучения», – признается г-н Урмсон, который перед этим возглавлял проект по беспилотным автомобилям холдинга Alphabet, являющегося материнской компанией Google.

Защита ИИ от хакерства

Программное обеспечение, управляющее нашими электросетями, камерами наблюдения и мобильными телефонами, имеет уйму слабых мест системы безопасности. Не следует ожидать, что программы для самоуправляемых автомобилей и домашних роботов будут чем-то отличаться. Все может сложиться даже хуже: существуют сведения о том, что сложность программ для машинного обучения протаптывает новые пути для хакерских атак.

Исследования этого года продемонстрировали возможность спрятать в системе машинного обучения секретный пусковой механизм, который переводит ее в злой режим при виде определенного сигнала. Группа ученых Нью-Йоркского университета разработала систему распознания дорожных знаков, которая работала совершенно нормально, пока в ее поле зрения не попадал желтый клейкий листочек. Система воспринимала знак «стоп» с прикрепленным на нем стикером, как знак ограничения скорости. Подобные трюки могут создать значительные проблемы для беспилотных автомобилей.

Эта угроза является настолько серьезной, что в рамках самой важной международной конференции по машинному обучению в начале этого месяца был проведен однодневный семинар, посвященный проблеме обмана машин, на котором обсуждались разнообразные хитрости и уловки, например, генерация рукописных цифр, которые выглядят нормальными для человека, но воспринимаются иначе программами: например, вы видите 2, а машина – 3. На этом семинаре также рассматривались возможные способы защиты от подобных хакерских атак. Присутствующие также были обеспокоены тем, что искусственный интеллект может использоваться для обмана людей.

Согласно прогнозам организатора семинара Тим Хванг (Tim Hwang) использование этих технологий для манипуляции людьми является неизбежным, поскольку обучать машины становится все легче и быстрее. «Вам больше не нужно иметь целый штат кандидатов наук, чтобы выполнить эту задачу», – подчеркнул г-н Хванг. Он также отметил российскую кампанию по распространению дезинформации во время президентских выборов в США в 2016 году как потенциального предвестника информационной войны при поддержке ИИ. «Методы из области машинного обучения вполне могут использоваться для проведения подобных кампаний», – уверен он. По мнению г-на Хванга, машинное обучение может особенно пригодиться для создания фейковых видеороликов и аудиозаписей.

Освоение более сложных игр, чем настольные

В 2017 году программа для игры в Го от компании Alphabet продвинулась еще больше. В мае этого года более мощная версия программы победила чемпионов по Го из Китая. Ее создатели, научно-исследовательская группа DeepMind, впоследствии разработали новую версию – AlphaGo Zero, которая выучила игровой процесс без изучения игр людей. В декабре очередные попытки улучшить программу привели к появлению на свет AlphaZero, которая может научиться играть в шахматы и в японскую настольную игру Сёги (хотя и не одновременно).

Большое количество выдающихся результатов не только впечатляет, но и напоминает об ограничениях программ ИИ. Шахматы, Сёги и Го – сложные игры, но с относительно простыми правилами и открытым для обоих игроков процессом игры. Они даются легко компьютеру, поскольку он может быстро перебирать все возможные варианты ходов. Но большинство ситуаций и проблем в жизни не настолько четко структурированы.

Именно поэтому в 2017 году DeepMind и Facebook начали работу над искусственным интеллектом для многопользовательской видеоигры StarCraft. Но пока они не достигли больших успехов. На данный момент лучшие боты, созданные любителями, не могут победить даже среднестатистического игрока. Разработчик DeepMind Ориол Виниалз (Oriol Vinyals) сообщил WIRED в начале этого года, что его программе не хватает навыков планирования и запоминания, необходимых для сбора и управления своей армией в процессе ожидания и реагирования на действия соперника. Имея именно эти навыки, программное обеспечение могло бы эффективнее помогать в выполнении таких реальных задач, как офисная работа или военные операции. Достижение значительного прогресса по StarCraft или подобным играм поспособствует созданию условий для разработки новых мощных приложений ИИ.

Обучение ИИ отличать правильные решения от неправильных

Даже без дальнейшего прогресса в вышеперечисленных областях многие аспекты экономики и общество могут существенно измениться, если существующие технологии искусственного интеллекта найдут широкое применение. В то время как компании и правительства спешат их внедрить, некоторые люди беспокоятся о случайном и умышленном вреде, который может причинить искусственный интеллект и машинное обучение.

Одним из самых обсуждаемых вопросов на конференции по машинному обучению нейросетевой системы обработки информации, которая состоялась в этом месяце, были методы удержания этой технологии в безопасных и этичных рамках. Исследователи обнаружили, что системы машинного обучения могут приобретать аморальное или нежелательные качества, например они могут увековечить гендерные стереотипы в случае использования для их обучения данных из нашего далекого от совершенства мира. Сегодня некоторые ученые работают над методами аудита внутренней работы систем ИИ и обеспечения принятия ими справедливых решений в случае их применения в таких сферах, как финансы или здравоохранение.

В следующем году предприятия информационных технологий должны предложить свои идеи, как удержать ИИ на стороне человечества. Google, Facebook, Microsoft и другие уже начали обсуждать этот вопрос и стали членами некоммерческого консорциума под названием   «Партнерство по искусственному интеллекту», который попытается предвидеть и повлиять на социальные последствия применения искусственного интеллекта. Этим вопросом также интересуются и более независимые организации. Благотворительный проект «Фонд этики и управления искусственным интеллектом» поддерживает усилия Массачусетского технологического института, Гарвардского университета и других, нацеленные на исследования искусственного интеллекта и связанных с ним интересами общества. Новый научно-исследовательский институт Нью-Йоркского университета – «Искусственный интеллект сегодня» – преследует схожие цели. В своем недавнем докладе сотрудники института призвали страны напрочь отказаться от использования алгоритмов типа «черный ящик», закрытых для общественного контроля, в таких сферах, как уголовное судопроизводство и социальная защита населения.

Источник: wired.com