На этой неделе в России подписали Кодекс этики искусственного интеллекта. Главный научный сотрудник Центрального экономико-математического института РАН Иван Грачев не раз писал в «БИЗНЕС Online», что уже летом 2020 года было совершенно очевидно, что Google и «Яндекс» собирают фантастические объемы информации — обо всех шагах, передвижениях, контактах людей в метро, на работе, в магазине, аптеке и т. д. Было понятно, что там есть и персонифицированная информация о каждом. Так что ИИ уже рядом с нами и влияет на нашу жизнь.
«Кодекс этики искусственного интеллекта — документ пустоватый, малозначимый в условиях нашей страны. Но там имеются моменты, которые правильные для любого будущего закона. Первый момент — это фиксация человеческой ответственности. Как ты ни крути, что, дескать, все решает за тебя искусственный интеллект, — отвечать должен человек»
«Возникает большой соблазн» пойти по пути ограничения прав граждан
На этой неделе, с моей точки зрения, было три сообщения, которые произвели наибольшее впечатление. Первое — глава Роспотребнадзора Анна Попова заявила о том, что в 84 регионах РФ вводится — для определенных категорий граждан, чья деятельность связана с общением с большим количеством людей, — обязательная вакцинация от ковида. Наверное, уже года полтора я писал в «БИЗНЕС Online», что подобное совершенно неизбежно и это надо делать, чтобы победить ковид.
Второе — председатель Конституционного суда России Валерий Зорькин в своей статье «Под знаком Основного Закона», опубликованной в «Российской газете», заявил, что в условиях кризиса у государственной власти «возникает большой соблазн» пойти по пути ограничения прав граждан ради общего блага, но этот путь не всегда правильный. Зорькин подчеркнул, что конституционные ограничения прав человека в связи с правами других людей или общности в целом могут начать расширительно толковаться. А это имеет отношение и к принудительной вакцинации, и к искусственному интеллекту.
И третье — подписание Кодекса этики искусственного интеллекта.
Для меня все эти три вещи связаны, но больше поговорим о новом кодексе. Я уже писал в «БИЗНЕС Online», что начиная с весны – лета 2020 года было совершенно очевидно, что фантастические объемы информации собирают Google и «Яндекс» — обо всех наших шагах, передвижениях, контактах. Это ясно уже из того, что они публикуют о контактах в метро, на работе, в магазине, аптеке и т. д. Более того, понятно, что там есть и персонифицированная информация о любом из нас. Это каждый может легко проверить уже по рекламе, которую ему шлют, причем даже при переездах и перемещениях. Так было, когда я в отпуск уехал, на море в Грецию, и работал там на совершенно других компьютерах¸ правда, взяв с собой свой телефон. Т. е. фактически вся информация — наша переписка, разговоры — у Google и «Яндекса» есть. Тут имеется плюс — этой информации было абсолютно достаточно для того чтобы, например, запрограммировать искусственный интеллект, и он выдал оптимальную стратегию карантинов и вакцинации уже летом 2020 года. В этом смысле была совершенно очевидна плюсовая потенциальная мощь накопленной информации. Но она по факту нигде не была использована. Минусы тоже очевидны — причем мне это не нравится, но я понимаю, что никак от этого не избавлюсь — любой мой разговор, перемещение, контакт «большим цифровым братом» отслеживается и хранится. Более того, в Соединенных Штатах по так называемому акту о свободе вся эта информация (и о россиянах тоже) передается американскому государству.
«Из-за ИИ полмиллиона водителей такси уже не защищены. Пройдет 10 плюс-минус лет, появятся беспилотные автомобили, и эти полмиллиона водителей заменят роботами»
В России абстрактные законы писать нельзя — это либо коррупция, либо полная пустота
Нужно пытаться загнать этот сбор информации в какие-то рамки, с тем, чтобы плюсы максимально использовать, а минусы максимально нейтрализовать. Тут нужно законодательство в части работы с этими большими данными и, соответственно, с искусственными интеллектами, которые ими оперируют. В этом смысле текст Кодекса этики искусственного интеллекта — это… Ну слово «фуфло» я бы не стал употреблять, но скажу, что это в основе очень абстрактный текст. Причина для меня совершенно очевидна, я ее вычислил еще тогда, когда занимался законом об инновационной деятельности. Это близкий по смыслу к Кодексу этики искусственного интеллекта закон, только там инновационной деятельностью занимается естественный интеллект, хотя и применяет ИИ. Когда я писал такой закон, то сразу столкнулся с администрацией президента и правительства, которые хотели, так же, как в свое время по закону об ипотеке, чтобы я написал все, как в США, написал закон, сильно похожий на американский по инновационной деятельности. И никакие мои попытки объяснить, что это абсолютно неприемлемо для России, ни к чему не привели. Но в Америке абстрактные тексты законов дальше дополняются прецедентным правом. Там прецедентное право — и даже если изначально, допустим, текст каких-то законов в значительной степени абстрактный, то практика, тем более если она большая, это очень быстро конкретизирует. Соответственно, в России такие абстрактные законы писать нельзя. Например, закон об инновационной деятельности должен дальше предусматривать какие-то льготы, налоговые и иные, инноваторам. И любые абстрактные формулировки для России — это либо коррупция, либо полная пустота.
Ровно то же самое касается Кодекса этики искусственного интеллекта. И законы, которые будут писаться на его основе, станут такими же.
Документы, похожие на такой кодекс, уже принимают и страны, и компании. Ясно, что впереди планеты всей тут Соединенные Штаты с их цифровыми гигантами. И наш российский Кодекс этики искусственного интеллекта стал попыткой написать нечто похожее на американский текст. Не скажу что это бесполезно и было не нужно делать на стадии предзаконного в известной степени общефилософского кодекса, но это малоэффективная попытка.
Всегда конкретный закон и потенциальный закон надо проверять на конкретных задачах, на то, как он отработает при решении конкретных задач. Проверить это легко. Одну из задач, кстати, описывала газета «БИЗНЕС Online» на примере «Яндекс.Такси» и «Uber-такси». В кодексе написано, что человек превыше всего и целевая установка искусственного интеллекта — доставить человеку не вред, а благо. Но вот из-за ИИ полмиллиона водителей «Яндекс.Такси» уже не защищены. Пройдет 10 плюс-минус лет, появятся беспилотные автомобили, и эти полмиллиона водителей заменят роботами, т. е. выкинут на улицу. Но, с точки зрения блага человека, возить пассажиров ИИ будет эффективнее и лучше. Как тут посчитать плюсы и минусы, как разумно ограничить минусы — этого из Кодекса этики искусственного интеллекта не следует. Т. е. ничего практичного для решения данной конкретной задачи кодекс не дает.
«Когда начинаешь с этими финансовыми роботами разбираться, понимаешь, что они доведут мир до фантастического кризиса»
Финансовые роботы доведут мир до фантастического кризиса
Вторая задача — о финансовых роботах. Они сегодня совершают 90% операций при торговле акциями и прочим. Тут характерный аргумент привел Владислав Сурков — что если уж люди свои родные, кровные денежки доверяют искусственному интеллекту, то и все остальное точно доверят. Но картина там какая? Когда начинаешь с этими финансовыми роботами разбираться, понимаешь, что они доведут мир до фантастического кризиса, который будет существенно больше, чем ипотечный кризис 2008 года. В 2008-м был очень мощный кризис, но он базировался на бумагах, которые начинались в одной отрасли, т. е. ипотека, недвижимость, на них накрученные бумаги. А здесь все будет на порядок хуже, потому что любыми отраслями, любыми бумагами, вторичными и третичными, торгуют как раз финансовые роботы. И они нарушают базовую идею рынка, потому что искусственные интеллекты идейно базируются всего на двух-трех алгоритмах. А любые алгоритмы содержат внутри систематическую ошибку, т. к. никаких полных знаний о рынке, о том, как он функционирует, ни у какого ИИ нет. А это значит, что миллионы независимых человеческих воль заменились смещенными двумя-тремя алгоритмами, идеями. Которые совершенно неизбежно приведут к ошибкам, и не таким, как сегодня в одной отрасли по газу, где неизбежные ошибки спотовых торгов привели к тому, что газ стал стоить в 10 раз больше, чем он на самом деле должен стоить по Леонтьевским балансам. А теперь ошибки будут не в одной отрасли, а в системе в целом, причем в глобальной системе. Т. е., повторю, финансовые роботы совершенно неизбежно приведут к мощнейшей катастрофе глобального масштаба. Поэтому надо искусственные интеллекты там ограничивать, нужно принимать законодательные решения, которые ограничивают использование финансовых роботов.
В этом плане Кодекс этики искусственного интеллекта ничего полезного, даже с философской, идейной точки зрения, не дает. Поэтому кодекс — документ пустоватый, малозначимый в условиях нашей конкретной страны. Но польза в нем все-таки есть, там имеются моменты, которые, на мой взгляд, правильные для любого будущего закона. Первый момент — это фиксация человеческой ответственности. Как ты ни крути, что, дескать, все решает за тебя искусственный интеллект, — отвечать должен человек.
Кстати, в «БИЗНЕС Online» напомнили, что элементы искусственного интеллекта применялись еще в годы Великой Отечественной войны. Это к вопросу о темпах прогресса. Есть у меня смешная история еще из советского прошлого, когда компьютеры уже появились. Мы с другом были в командировке в Екатеринбурге, тогда еще Свердловске, жили в гостинице. Приходим вечером с работы, и тут моему другу говорят: «А компьютер вас выселил»… И никто из работников гостиницы якобы ни при чем!
Вот в Кодексе этики искусственного интеллекта постарались такие отмазки предусмотреть — там записано, что, если искусственный интеллект кому-то нанес урон, за него отвечает не ИИ, а человек, ответственность должна быть за конкретным человеком. Но сказать-то это легко, а сделать трудно. Вот как с финансовыми роботами все грохнет, то кто за это ответит? Но, с общефилософской точки зрения, положение об ответственности именно человека правильное.
В кодексе есть еще одна правильная вещь — какие бы мы нормальные законы про ИИ ни написали, останутся мощные серые зоны. Такие, где все жестко регламентировать все равно не получится. Значит, какие-то профессионалы, с точки зрения этики и техники, должны вместе собраться и решить, что в этой серой зоне хорошо и что плохо. Кстати, эту идею я использовал в законе об инновационной деятельности. И в кодекс такая идея тоже заложена. Поэтому совсем уж негативно к нему отнестись я не могу, какой-то шажок вперед все-таки сделан. Но основной минус — что это опять попытка написать США-подобный документ, а такие в нашей стране работают очень плохо.
Внимание!
Комментирование временно доступно только для зарегистрированных пользователей.
Подробнее
Комментарии 41
Редакция оставляет за собой право отказать в публикации вашего комментария.
Правила модерирования.