Китайский «Большой брат» учиться распознавать эмоции. Что дальше? |
Автор: По инф. polit.ru |
09.03.2021 11:08 |
Китайские власти активно внедряют технологию распознавания эмоций. Темпы, которыми продвигается этот процесс, откровенно пугают правозащитников. Инструменты и критерии наблюдения выглядят антинаучными и расово предвзятыми, поэтому противники подобных «инноваций» требуют их запретить прежде, чем они распространятся за пределы Китая. Рассказываем, как IT-компании помогают властям КНР следить за проявлениями гнева и печали своих сограждан и чем это грозит всему остальному миру.
Системы распознавания эмоций, по замыслу их создателей, должны выявлять на лицах выражения гнева, печали, счастья и скуки, а также собирать и анализировать другие биометрические данные. Что именно чувствует тот или иной человек, определяют на основе движения лицевых мышц, тона голоса, положения тела и так далее. Эти системы гораздо сложнее, чем уже привычные технологии распознавания лиц, которые просто сравнивают картинки и ищут совпадения. Новые методы тоже включают в себя массовый сбор персональных данных для отслеживания, мониторинга и характеристики людей, используется машинное обучение. Критики новой технологии утверждают, что она основана на псевдонаучных стереотипах. Все большее число исследователей, юристов и правозащитников опасаются, что она будет иметь серьезные последствия для прав человека, конфиденциальности и свободы выражения мнений во всем мире. По прогнозам, мировая отрасль распознавания эмоций к 2023 году будет стоить около $36 млрд и будет расти почти на 30% в год, поэтому действовать необходимо немедленно. В январе 2021 года британская правозащитная группа Article 19 выпустила доклад, посвященный разработкам и использованию технологий распознавания эмоций в Китае. Авторы документа призвали гражданское общество как можно быстрее начать информационную кампанию против продажи и применения этих технологий. Они призвали запретить их до того, как распознавание эмоций получит широкое, в том числе коммерческое, распространение. По мнению правозащитников, разработки в области отслеживания эмоций обладают «огромным потенциалом негативного воздействия на жизнь и средства к существованию людей и принципиально и внутренне несовместимы с международными стандартами в области прав человека». Как минимум они нарушают право на свободу самовыражения, вынуждая людей соответствовать «хорошим» характеристикам, право на протест и на свободу не свидетельствовать против себя, ведь любое выражение лица может быть расценено как «изобличающее» замыслы или подтверждающее виновность. Слежка под видом заботы о безопасностиВ докладе Article 19 упоминались 27 китайских компаний, занимающихся разработками в области распознавания эмоций. Лишь в одной из них согласились пообщаться с журналистами The Guardian. «Обычные жители Китая не очень довольны новыми технологиями, но у них нет выбора. Если полиция скажет, что в общине должны быть камеры, людям просто придется с этим жить. Спрос есть всегда, и мы здесь, чтобы его удовлетворить», — рассказал Чен Вэй из компании Taigusys. Офис Taigusys спрятан за несколькими малоэтажными офисными зданиями в Шэньчжэне. Посетителей встречает серия камер, показывающих их изображения на большом экране, который отображает температуру тела, а также оценку возраста и другую статистику. Чен, генеральный менеджер компании, говорит, что система, установленная на входе в офис, — бестселлер компании. Спрос на эту разработку вырос во время пандемии коронавируса. Чен приветствует распознавание эмоций как способ прогнозировать опасное поведение заключенных, обнаруживать потенциальных преступников, проблемных учеников в школах и пожилых людей, страдающих слабоумием, в домах престарелых. Системы Taigusys уже установлены примерно в 300 тюрьмах, спецприемниках и следственных изоляторах по всему Китаю, к ним подключены 60 тыс. камер. «Насилие и самоубийства очень распространены в центрах заключения. Даже если в наши дни полиция не избивает заключенных, их часто пытаются измотать, не давая уснуть. В результате у некоторых заключенных наступает психическое расстройство и они стремятся покончить с собой. И наша система поможет предотвратить это», — говорит Чен. По его словам, заключенные становятся более послушными, если знают, что они находятся под наблюдением этой системы — 24 часа в сутки в режиме реального времени. Помимо тюрем и полицейских контрольно-пропускных пунктов, Taigusys развернула свои системы в школах для наблюдения за учителями, учениками и персоналом, в домах престарелых — для выявления падений и изменений эмоционального состояния пациентов, а также в торговых центрах и на автостоянках. Хотя использование технологии распознавания эмоций в школах Китая вызвало некоторую критику, ее использование властями в отношении граждан почти не обсуждалось. Признавая эту проблему, Чен тем не менее подчеркивает потенциал системы в предотвращении происшествий с применением насилия. Он напомнил случай в провинции Гуанси на юге Китая в июне прошлого года, когда охранник ранил ножом 41 человека. По мнению представителя компании, преступление можно было предотвратить с помощью новых технологий. Его позицию ставит под сомнение сотрудница Article 19, юрист, специализирующийся на социально-правовых последствиях появления новых технологий, Видуши Марда. «Знакомый и немного разочаровывающий рассказ, который часто используют, когда новые, „блестящие“ технологии вводят под видом заботы о безопасности. Но на самом деле видеонаблюдение мало связано с безопасностью, и я не уверена, что обратная связь в реальном времени устранит насилие», — говорит правозащитница. По ее мнению, большая часть биометрического наблюдения, в том числе и распознавание эмоций, тесно связана с запугиванием и цензурой. Возможность ошибочного использованияДругая проблема заключается в том, что системы распознавания обычно основаны на действиях позировавших при разработке актеров и их представлениях о том, что они считают счастливым, грустным, злым и другими эмоциональными состояниями. Выражение лица также может широко варьироваться в зависимости от культуры, что приводит к дальнейшим неточностям и этническим предубеждениям. Система Taigusys, которая используется полицией в Китае, а также службами безопасности в Таиланде и некоторых африканских странах, включает такие идентификаторы, как «желтый, белый, черный» и даже «уйгурский». «Население в этих странах более разнообразно в расовом отношении, чем в Китае, а в Китае это также используется для отличия уйгуров от ханьских китайцев. Если появится уйгур, он будет помечен, но система не будет отмечать ханьского китайца», — говорит Чен. На вопрос, не беспокоит ли его, что эти функции используются властями не по назначению, Чен отвечает отрицательно, так как программное обеспечение используется полицией, подразумевая, что таким учреждениям следует автоматически доверять. Для Шазеды Ахмед, исследователя из Института AI Now при Нью-Йоркском университете, которая участвовала в создании отчета Article 19, это «ужасные аргументы». «То, что китайские представления о расе будут встроены в технологии и экспортированы в другие части мира, действительно вызывает беспокойство, особенно потому, что в Китае нет того критического дискурса о расизме и этнической принадлежности, который есть у нас в Соединенных Штатах», — говорит Шазеда Ахмед. По ее словам, исследования за последние несколько лет показали, что сбор конфиденциальной личной информации особенно опасен, когда находится в руках государства — с учетом широкой сферы их возможного использования государственными структурами. В Китае по сути нет никаких законов, ограничивающих доступ властей к биометрическим данным, что дает таким компаниям, как Taigusys, полную свободу разрабатывать и внедрять эти продукты, в то время как аналогичные предприятия в США, Японии или Европе не могут этого делать, соглашается Чен. «Таким образом, у нас есть возможность собрать как можно больше информации и найти наилучшие сценарии использования этих данных», — говорит он. Любопытно, что, продвигая свои разработки, китайские компании ссылаются на положительный зарубежный опыт, отмечают докладчики Article 19. Аналоги таких программ действительно тестировали в США, Венгрии, Латвии и Греции. Однако разработчики из Китая умалчивают, что большая часть их предшественников из западных стран, наоборот, подверглась критике за расизм, ложноположительные результаты и нарушение прав человека. Еще один аргумент противников распознавания чувств и настроений заключается в том, что технология опирается на по сути антинаучные теории. «Три ошибочных предположения лежат в основе обоснования использования и продажи технологий распознавания эмоций: что выражения лица универсальны, что эмоциональные состояния могут быть извлечены из них и что такие выводы достаточно надежны, чтобы их можно было использовать для принятия решений. Ученые по всему миру десятилетиями дискредитировали все три гипотезы, но это, похоже, не мешает экспериментам и продаже технологий», — констатируют авторы доклада Article 19. МНОГИХ ЗАИНТЕРЕСОВАЛО: |