Опубликовано 21 октября 2020, 22:00

«Цифра» и общество: страхи и надежды на «Открытых инновациях»

О жизни после коронавируса: новые технологии и страхи
«Цифра» и общество: страхи и надежды на «Открытых инновациях»

© Unsplash

Многие тематические сессии международного форума «Открытые инновации» ожидаемо были посвящены будущему цифровых технологий и ответу на пандемию COVID-19. Но на стыке этих двух тем тоже нашлось место интересным дискуссиям. Эксперты обсудили, как эпидемия изменила отношение к «цифре» в разных сферах жизни и насколько мы готовы полагаться на технологии в будущем.

Чего боится пользователь

Тон обсуждению сложных взаимоотношений людей и цифровых технологий задала дискуссия «Скрытая угроза или источник надежды? Как общество воспринимает цифровые технологии после пандемии?» в первый день форума. Основным докладчиком на ней стал декан экономического факультета МГУ Александр Аузан. Он представил результаты опроса, проведенного университетом этим летом по заказу Российской венчурной компании. Целью исследования было выяснить, как поменялось во время пандемии у жителей разных регионов России восприятие новых технологий — считают ли они теперь более полезными сервисы онлайн-обучения, доверяют ли мобильным приложениям банков, готовы ли пользоваться телемедицинскими услугами и так далее.

В целом результаты, рассказал Аузан, выглядят оптимистично для развития цифровой экономики. 43% опрошенных отметили, что их отношение к цифровым технологиям улучшилось, в том числе вырос интерес к онлайн-консультациям с врачами, передаче им своих медицинских данных через интернет, а также к дистанционным образовательным технологиям.

«Цифра» и общество: страхи и надежды на «Открытых инновациях»

© Александр Аузан

Конечно, как и любое исследование, опрос имеет ограничения. Так, физик и философ Алексей Гринбаум, исследователь во французском Комиссариате по атомной энергии и альтернативным источникам энергии, отметил, что во время пандемии от месяца к месяцу отношение людей к технологиям, как и готовность отказываться от очного общения для своей безопасности, сильно менялись. Другая участница дискуссии, руководитель Центра исследований науки и технологий (Центр STS) Европейского университета в Санкт-Петербурге Ольга Бычкова, сказала, что данные исследования будут очень полезны с академической точки зрения, но обратила внимание на неполноту опроса. Люди могут иметь в виду совершенно разные вещи, обсуждая использование одной и той же технологии, потому что применяют ее по-разному. Например, с дистанционным образованием этой весной столкнулись преимущественно женщины, потому что именно на них в семьях обычно ложится ответственность за детей-школьников. И строить опрос по этой теме одинаково для женщин и мужчин бессмысленно: не получится узнать, что именно люди имеют в виду под использованием этих технологий, как они дальше будут применять их в жизни. Гринбаум добавил к дискуссии еще одну сложность внедрения и изучения новых технологий: люди формируют отношение к ним, основываясь не на знаниях (их у пользователя чаще всего нет) и не на опыте (его они не успели приобрести), а на сложившихся нарративах. Определенные образы технологий — как «гало» вокруг них — складываются в СМИ, закладываются рекламой. Иногда одного неверного слова достаточно, чтобы затормозить распространение новой разработки. Например, рассказал Гринбаум, во Франции провалилось приложение для отслеживания цепочек контактов заболевших COVID-19, потому что его представили как «централизованное» — а люди, как выяснилось, не хотят ничего централизованного.

Александр Аузан ответил на замечания Ольги Бычковой, что разные методологические подходы — широкие опросы и небольшие этнографические исследования — друг другу не противоречат, а, напротив, позволяют составить комплексную картину. Агрегированные же оценки (условные 23% за дистанционные технологии в образовании, 20% за беспилотные автомобили и так далее), какими бы общими они ни были, помогают, с точки зрения Аузана, увидеть поворотные пункты, в которых меняются отношения власти и населения. Ведь цифровые технологии — это всегда генерация данных, которые многое сообщают о человеке. Кто должен их получать, как использовать, как хранить? Опрос однозначно показал, по словам Аузана, — большинство россиян не считают, что государство эффективно защищает их данные. При этом очень многие (76%) из опрошенных допускают сбор персональных данных правоохранительными органами для обеспечения безопасности; 66% согласны, что данные нужно собирать для контроля за распространением инфекционных заболеваний. А на контроль мобильности граждане в основном не согласны.

«Цифра» и общество: страхи и надежды на «Открытых инновациях»

© Александр Аузан

Государству, заключил Аузан, стоит озаботиться проблемой защиты персональных данных россиян: стимулировать конкуренцию цифровых платформ, чтобы они внимательно относились к запросам пользователей; ввести серьезные штрафы для компаний, допускающих утечку данных; ввести должность цифрового омбудсмена, который помогал бы людям взаимодействовать с цифровыми гигантами; обеспечить «право на забвение»; развивать законодательство по защите персональных данных и так далее. «Это не частный вопрос нашего инновационного развития, это ключевой вопрос в мире сейчас — как будет устроен мир в ковидную и пост-ковидную эпоху», — сказал экономист.

Вице-президент «Ростелекома» по стратегическим инновациям Борис Глазков отметил, размышляя о возможностях защиты данных, что цифровым платформам он эту роль не доверил бы: компании ведут себя «диковато» по отношению к пользователям, они не доросли до того, чтобы выступать гарантами безопасности данных. Децентрализованное хранение информации, когда взлом никакой отдельной базы не даст мошенникам узнать достаточно, тоже не панацея. «Все равно где-то существует точка сборки, — сказал Глазков, демонстрируя смартфон, — в которой все данные собираются вместе. И как ты их ни децентрализуй на уровне хранения и обработки, как ни шифруй каналы передачи, здесь они соединяются, чтобы их использовать. И это конечное устройство можно взломать». Оператором системы, в которой пользователи смогут давать и отзывать согласия на использование своих данных разным платформам, с его точки зрения, может быть только государство.

Качнется ли маятник?

Целиком теме сбора и управления пользовательскими данными посвятили сессию «"Цифровые овцы". Кто имеет право на "цифровую шерсть"?» Настроения ее российских участников выразил заместитель министра строительства и жилищно-коммунального хозяйства РФ Александр Козлов: «В наше частное пространство вторгаются гораздо быстрее, чем мы могли себе представить. Мы боялись интернета вещей, боялись, что к нам проникнут девайсы, которые будут о нас что-то говорить, но к нас в дом пришла работа. Из-за ковида мы пустили к себе те процессы, о которых даже не думали. И очень многие люди к этому не готовы». С пессимистичным прогнозом выступил директор Департамента цифровой трансформации Счетной палаты Михаил Петров: «Будущее становится все более тотально контролируемым со стороны цифровых технологий, тем более что мы сами это радостно приветствуем. Мы внезапно поняли, как хорошо не ходить в банки и в управляющие компании, чтобы оплачивать счета, как это здорово делать одним движением пальца, не выходя из дома... Теплые ламповые аналоговые отношения все больше будут вытесняться. Надеюсь, что это маятник, который остановится и начнет возвращаться обратно».

Как действовать людям, компаниям и государству в изменившихся условиях? Консультант Всемирного банка Эндрю Стотт предложил ввести наряду с понятием собственности на данные концепцию владения ими (ownership и possession). Впрочем, это различие не отменяет того, что одна и та же компания может использовать данные как на пользу человеку, так и во вред ему. Например, или улучшит его поисковую выдачу, или завысит цену на свои услуги. Закон, считает Стотт, должен регламентировать цели, для которых могут использоваться персональные данные. Но пока для этого недостаточно ни технических, ни институциональных ресурсов. Основатель и руководитель North Summit Capital and QuadTalent Technology Ванли Мин отметил в ответ, что любая деятельность предполагает, что вы что-то отдаете, чтобы что-то получить взамен. Цель регулирования сферы использования данных должна состоять скорее в том, чтобы обеспечить взаимовыгодный характер отношений платформ и пользователей.

О другой стороне вопроса предложил подумать Джеймс Вудхайзен, управляющий директор Woudhuysen Ltd. Он выступил против распространенного в обсуждениях проблем с данными образа человека-потребителя, уязвимого перед цифровыми гигантами, который только и может, что оставлять за собой цифровые следы. Для людей и корпораций мир состоит не из потребления, куда большую роль в нем играет труд. Гораздо больше, чем сбор данных социальными сетями или поисковиками, Вудхайзена волнует вопрос, делают ли цифровые технологии сотрудников более уязвимыми перед работодателями. При желании работодатель может узнать о сотрудниках, работающих из дома, все что угодно — от семейной ситуации до проблем с осанкой. И развитию норм, которые позволяют делать это, нужно сопротивляться, считает Вудхайзен.

Петров ввел в дискуссию понятие «цифровой гигиены», которую нужно научиться соблюдать, и подчеркнул, что пока сфера использования пользовательских данных регулируется больше «доброй волей» участников. Отдаст человек свои медицинские данные или нет, зависит от него; используют их для разработки лекарства от вируса или для роста продаж фармацевтической компании, зависит от этой компании. Законодательство в этих вопросах отстает: «Идет накопление опыта и его трансформация в общепринятый набор правил. Пока мы этот процесс не пройдем, мы останемся в серой зоне межгрупповых договоренностей».

Слуга или хозяин?

Иногда приложения и девайсы не просто следят за нами, а еще и подсовывают ложную информацию. Впрочем, стоят за ней обычно люди. На сессии «Fake and Hype. Информационная мистификация. Искусственный интеллект против фабрики фейков» эксперты обсудили, почему появляются и собирают аудиторию фейковые новости и можно ли разделить правду и ложь при помощи искусственного интеллекта. Развернутое пояснение тому, почему мы все иногда верим непроверенной информации, дал журналист, руководитель проекта «Полка» Юрий Сапрыкин. С его точки зрения, самый сильный фейк — тот, что действует на эмоции: псевдо-некрологи, псевдо-вручения Нобелевской премии и так далее. «Информационная среда, в которой мы находимся, снижает склонность прислушиваться к институциональным новостным источникам. Мы все друг для друга — эксперты и ведущие новостных программ, одинаково друг другу и доверяем, и не совсем доверяем... Та среда, в которой сейчас распространяются новости, появилась совсем недавно по историческим меркам, и мы еще не научились правилам поведения в ней».

О технической возможности фильтрации ложных сообщений в новостных лентах с помощью искусственного интеллекта рассказал руководитель Центра когнитивных технологий «АйТеко» Илья Калагин. В полном объеме задача, подчеркнул он, нерешаема: нельзя запрограммировать систему, которая в любой теме будет отделять фейковые тексты от имеющих под собой основания. Но если выбрать фокус и направление — анализ информации, например, по одной организации или одной политической ситуации, то со многими негативными явлениями можно справиться. «Я бы говорил не о применении искусственного интеллекта, а об автоматизации в целом этой отрасли. Эти системы состоят из множества модулей, каждый из которых решает свою задачу... Чтобы подтвердить, валидна информация или нет, нужно создать базу знаний. Вторая составляющая — сбор информации. И третья — блок обработки информации, который включает методы NLP-обработки, машинное зрение, видеоаналитику, голосовые технологии и так далее». Комплекс сложнейших алгоритмов, подчеркнул Калагин, поможет выделить в рамках одной темы достойную доверия информацию. Но не более того. Системы автоматизации сейчас — только помощник людям.

И именно людям надо для начала разобраться, что такое фейковые новости, считает основатель проекта Think The Unthinkable Ник Гоуинг. Сейчас определение утратило свое значение: фейком называют все, что хочется отбросить, чему не хочется верить. Сам Гоуинг предпочитает говорить о дезинформации и манипулировании фактами со стороны правительств, компаний и так далее. Искусственный интеллект не может быть стопроцентной гарантией — системы программируются людьми и обречены быть предвзятыми.

Руководитель высшей школы коммуникаций и журналистики имени Сами Офера в Междисциплинарном центре в Герцлии (Израиль) Ноам Лемельштрих Латар тоже считает, что искусственный интеллект не поможет решить, правдивы ли новости. Технологии меняют медиасреду во всех отношениях — роботы пишут новостные заметки и другие тексты, подбирают информацию так, что каждый пользователь интернета оказывается в своем «пузыре» и просто не видит альтернативных мнений. Единственный верный, по мнению Латара, способ борьбы с дезинформацией — постоянное образование и сохранение профессиональной журналистики.

Понравился материал? Добавьте Indicator.Ru в «Мои источники» Яндекс.Новостей и читайте нас чаще.

Подписывайтесь на Indicator.Ru в соцсетях: Facebook, ВКонтакте, Twitter, Telegram, Одноклассники.