Джедай из Пентагона, Tesla-вагонетка и датаом Шекспира

Корпорация Microsoft заявила, что, несмотря на протесты некоторых сотрудников, будет участвовать в проекте Пентагона JEDI стоимостью около $10 млрд. JEDI призван перестроить оконечную IT-инфраструктуру американских военных на всех уровнях.

В посте корпорация красноречиво отвлекает внимание от военного применения технологий. Microsoft напоминает, что новые решения пригодятся для, например, спасения людей от стихийных бедствий.

Но любое мирное применение новой инфраструктуры не может скрыть один факт. Создатели облачной инициативы JEDI заявляли, что она предназначена для «повышения смертоносности» вооруженных сил США. Проще говоря, для более эффективного убийства людей.

Тема этого выпуска — этические принципы искусственного интеллекта.

Не только Microsoft

С этическими проблемами в области искусственного интеллекта столкнулись и другие компании. В том же тендере Пентагона собирались участвовать ключевые поставщики облачных решений — Google и Amazon.

Основатель Amazon Джефф Безос уже подтвердил, что компания не собирается отказываться от оборонных контрактов. По его словам, если крупные технологические корпорации отвернутся от минобороны, страна окажется в беде. Похоже, это авторитарное решение самого Безоса.

Google, напротив, решил не участвовать в военных играх, объяснив это конфликтом с корпоративными принципами применения искусственного интеллекта. Представители корпорации заявляли, что могли бы участвовать в JEDI, если бы условия тендера позволяли выбор нескольких поставщиков. Тогда Google попытался бы стать полезным в тех частях проекта, которые не причинят вреда людям.

Двояковыпуклые принципы

К сожалению, и в этом заявлении есть доля лицемерия. В этических принципах Google, касающихся применения искусственного интеллекта, отсутствует действенность. Их очень трудно однозначно приложить к конкретному проекту.

По мнению гуглеров, ИИ должен:

  • быть полезным для общества;
  • избегать выработки предпочтений и не усиливать существующие несправедливые;
  • создаваться и проверяться с учетом требований безопасности;
  • отчитываться перед человеком;
  • строиться с учетом принципов приватности;
  • поддерживать высокие стандарты научного совершенства;
  • использоваться лишь в сценариях, которые удовлетворяют приведенным принципам.

Если прочесть этот список глазами военных, в нем все правильно, и Google мог бы участвовать в JEDI. Правда, Google отдельно обещает не участвовать в разработке:

  • оружия;
  • технологий, наносящих вред;
  • технологий для слежки и надзора, нарушающих международные нормы;
  • решений, нарушающих международное законодательство и права человека.

Нельзя сказать, чтобы эти области применения однозначно вытекали из принципов Google. Просто корпорация уже обожглась на пентагоновском проекте Maven и поэтому могла себе позволить отказаться и от JEDI (Maven предназначен для идентификации целей дронов с помощью ИИ; он стал причиной ухода некоторых сотрудников Google).

В то же время с китайскими проектами Google все не так однозначно, хотя правительство Китая зачастую нарушает все те принципы, касающиеся слежки и защиты прав человека.

Что мне с этого? Последние годы Россия движется по китайскому пути развития интернета, но разговоры о том, что российские интернет-компании должны выработать хоть какие-то отраслевые этические нормы при разработке алгоритмов искусственного интеллекта, даже не ведутся. Такое безразличие чревато существенными рисками вторжения в частную жизнь и использованием ИИ в недобрых целях.

Вагонетка

Вплотную к общему вопросу о помощи военным примыкает традиционный вопрос «кем можно пожертвовать?», важный для самоуправляемого транспорта.

26 октября Илон Маск объявил о запуске в Северной Америке навигационной функции Autopilot, которая требует от водителя минимального вмешательства.

Человечество вплотную подошло к моменту, когда искусственному разуму придется определить, кого сбить на дороге, если есть выбор. Другими словами, решить классическую проблему вагонетки.

Тяжелая неуправляемая вагонетка несется по рельсам. На пути ее следования находятся пять человек, привязанные к рельсам сумасшедшим философом. К счастью, вы можете переключить стрелку — и тогда вагонетка поедет по другому, запасному пути. К несчастью, на запасном пути находится один человек, также привязанный к рельсам. Каковы ваши действия?

Ученые из Массачусетского технологического института попытались ответить на этот вопрос, учитывая его важность. Они опросили 2,3 млн человек, попросив распределить по ценности тех, кого следовало бы пожалеть. В ходе проекта, который они назвали Moral Machine, выяснилось, что ценность человеческой жизни варьирует в зависимости от региона и народности. Это немного обесценивает собранные данные.

К огромному сожалению, проект Moral Machine вряд ли сможет использоваться в реальных сценариях. Тогда придется выработать какой-то руководящий принцип как определения выплат, так и ответственного за сбой. Сейчас такого общепринятого принципа не существует.

Что мне с этого? Задачу вагонетки для Tesla можно было бы решить цинично и просто: надо пощадить человека с самой большой страховкой. Страховая компания уже провела самые точные расчеты и учла множество факторов, когда оформляла страховку; это общепринятый метод учета рисков.

Но вам вряд ли понравится, если автомобиль в своем решении за доли секунды опросит серверы страховщиков и примет решение по такому простому принципу. Тесты вроде того, который провел MIT, позволяют каждому внести свой вклад в разработку киберсовести.

+1 к осознанности

Приложения для медитации очень распространились среди любителей управлять стрессом и повышать производительность. Например, Headspace в сентябре 2018 года пользовался 31 млн человек (при миллионе платных пользователей).

В статье The Ringer утверждается, что на деле человек вряд ли может расслабиться и практиковать осознанность, если применяет мобильное приложение для медитации.

Read later

  • Эгоистичный датаом. Множество данных, которые генерирует человек или любой другой организм, называется датаомом (аналогично геному — совокупности наследственной информации). Nautilus разбирает это понятие на примере Шекспира.
  • Тайная ресторанная империя Uber. Бурный рост бизнеса по доставке еды привел к необычным последствиям. В Нью-Йорке, Монреале, Майами-Бич и других городах появились рестораны без посетителей. Они работают только на заказы Uber Eats. Всего Uber Eats работает с 1600 виртуальными ресторанами в 300 городах планеты.
  • Фейсбучные группы терапии. The Atlantic описывает социальный феномен Facebook — многочисленные группы поддержки, где люди делятся друг с другом секретами. Большинство таких групп закрыто и покрывает очень узкие тематики — например, есть группа для детей, узнавших из теста ДНК, что их родители — не их. Зачастую эти группы держатся только на доверии и насчитывают сотни, а то и тысячи участников.