ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ
VS.
ЗАЩИТА ПЕРСОНАЛЬНЫХ ДАННЫХ
Автор: Юлия Агафонова

В статье раскрываются вопросы, связанные с проблематикой развития искусственного интеллекта и необходимостью защиты конституционного права граждан на частную жизнь и защиты персональных данных.

Необходимо создать баланс между интересами государства, больших компаний и частых лиц, кто на ежедневной основе передает свои персональные данные третьим лицам.

Разработки IT-специалистов последних лет показывают широкое распространение искусственного интеллекта (далее - ИИ) в обыденной жизни: система «умный дом», использование ИИ при проведении сложных медицинских операций, во время поиска информации1 и ее обработки. Например, не так давно Сбербанк анонсировал запуск своей нейросети Kandinsky 2.1, которая способна генерировать изображения на основе написанного текста2.

Такое стремительное развитие ИИ заставляет юристов задуматься о его правовом статусе: дискуссии о правосубъектности ИИ и авторском праве на результаты деятельности ИИ не стихают последние годы3.

Важным является вопрос защиты персональных данных (далее - ПД). Это объясняется обработкой ПД при помощи системы ИИ без согласия субъекта ПД и аккумулированием ИИ больших объемов данных. Так, известны дела, связанные с американской компании Open AI, работающей на основе машинного обучения, и ChatGPT. Итальянский регулятор отметил, что компания массово собирает и хранит ПД пользователей, не имея правовой базы на подобные действия4, что свидетельствует о слабых механизмах защиты ПД.

Актуальность темы связана и с политико-правовым курсом, заданным еще в середине 2020 г. в Указе Президента РФ от 21 июля 2020 г. N 474 "О национальных целях развития Российской Федерации на период до 2030 года", где одной из приоритетных национальных целей была отмечена цифровая трансформация до 2030 г.5. Во исполнении указа Президента Российской Федерации и п. 2 перечня поручений Президента Российской Федерации от 31 декабря 2020 года № Пр-2242 на региональном уровне были разработаны стратегии цифровой трансформации6

Иными словами, в России идет процесс увеличения роли ИИ в общественной жизни, что увеличивает случаи несанкционированного доступа к ПД. Такое стремительное внедрение ИИ требует проработанных правовых механизмов, которые не будут идти вразрез с правом гражданина на частную жизнь и закрепленным конституционным принципом равенства при обработке ПД7.

Целью работы является оценка рисков развития ИИ при соблюдении приватности пользователей и предложение механизмов, позволяющих обеспечить баланс между интересами пользователей и третьих лиц.

Понятие "искусственного интеллекта"


Одной из интерпретаций ИИ является объяснение понятия через комплекс технологических решений, позволяющих имитировать когнитивные функции человека для достижения результатов, сопоставимых с результатами интеллектуальной деятельности человека8. Однако подобное определение не столь однозначно и в научной доктрине существуют и иные взгляды на искусственный интеллект. Кто-то определяет ИИ через компьютерную систему, которая подобна интеллекту человека9. Более абстрактное определение в научной доктрине выражалось В.Н. Ручкиным, который представляет ИИ в качестве системы мета-процедур, имитирующих деятельность человека10.

В зарубежном законодательстве также существует ряд споров относительно того, как определять ИИ. Так, американское законодательство в сфере обороны и национальной безопасности предлагает несколько подходов к пониманию ИИ: искусственная система, копирующая процесс мышления и действия человека (когнитивные структуры и нейронные сети), набор методов (машинное обучение), искусственная система для осуществления рациональных действий и др11.


В то же время учеными отмечается, что ИИ сам по себе должен быть взаимосвязан с внешним миром и воспринимать окружающую среду при помощи датчиков или иных механизмов, тем самым ИИ, по заявлению Стюарта Рассела, является агентом, действующим лицом12.

Обобщая представленные выше позиции, можно утверждать, что ИИ является некой пародией на когнитивные способности человека, которые позволяют ему достигать определенных результатов и выполнять ряд сложных задач. В работе речь идет об общем (сильном) ИИ, который по своим способностям в будущем должен соответствовать интеллектуальным возможностям человека Artificial general intelligence (AGI).

В свою очередь, обработка персональных данных представляет собой любое действие, совершаемое с использованием средств автоматизации или без использования таких средств с ПД13.

Одним из ключевых аспектов в регулировании ИИ в рамках обработки ПД является поиск баланса между интересами компаний и интересами частных лиц. В Распоряжении Правительства РФ от 19.08.2020 N 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года» одним из направлений отмечается соблюдение баланса между требованиями по защите ПД и необходимостью их использования для обучения систем ИИ. Проблема заключается в том, что на данный момент существует перевес в сторону крупных компаний, собирающих ПД и затем использующих их за рамками предусмотренного согласия субъекта ПД. Так, данные Европейской организации потребителей показывают, что примерно половина европейцев согласна с тезисом о том, что использование ИИ ведет к злоупотреблению персональными данными14. Постоянные утечки информации и скандалы фирм-гигантов (например, Сбера15) вызывают недоверие в обществе со стороны субъектов ПД, кто беспокоится о безопасности своих данных16.
В ходе работы автор подсвечивает существующие проблемы и ищет баланс в интересах разных социальных групп и государства.
В зарубежной доктрине также возникает ряд сомнений относительно понимания ИИ, например, С. Рассел и П. Норвиг выделяют четыре подхода:
  • 1
    Система, действующая как человек
    (возможность взаимодействия с окружающей средой)
  • 2
    Система, думающая как человек
    (опора на мышление человека и его когнитивные способности)
  • 3
    Рационально думающая система
    (машина, работающая по принципам формальной логики, теории вероятности и т.п.)
  • 4
    Рационально действующая система (достижение наилучшего результата).

Искусственный интеллект и персональные данные работников


Одной из проблем является внедрение и использование ИИ в больших компаниях для контроля за деятельностью работников и систематизации полученных данных17.

Работодатели заинтересованы в использовании ИИ при выполнении технических процессов, связанных с систематизацией ПД сотрудников. Систематизация ПД при помощи ИИ позволяет работодателям собрать базу данных о сотрудниках. Использование ИИ может сократить временные и финансовые издержки на использование услуг бухгалтера и менеджера, а сохраненные средства могут быть перераспределены на развитие продуктов компании. Кроме того, ИИ способен беспрерывно собирать ПД сотрудников, оперативнее оценивая их состояние и профессиональные потребности18. Подобный анализ внутренней удовлетворенности сотрудников компании гораздо сложнее провести без использования технических средств.

Однако использование ИИ может усилить информатизацию и скопление больших данных о сотрудниках в одной базе данных (на основе ИИ можно собирать не только такие ПД как телефон, ФИО, электронная почта и т.п., но и биометрические данные). Это увеличивает риски утечки большого числа данных, особенно в компаниях, где отсутствует хорошо защищенные сервера с собранными ПД.

Кроме того, атмосфера «паноптикума»19, возникающая из-за не прекращаемого контроля ИИ за работой сотрудников может негативно сказываться на работоспособности и эффективности производства. Так, одним из последних громких дел был скандал сотрудников Wildberries, которые из-за неподъемных штрафов начали закрывать пункты выдачи товаров в знак протеста контролю за каждым действием сотрудника20. Внедрение ИИ вызовет чувство постоянной слежки. Подобные кейсы известны и зарубежным правопорядкам: в 2021 г. компания Аmazon запустила систему нейросети, которая способна отследить деятельность водителя во время движения и составить «рейтинг безопасности», влияющий на карьерный рост работника21. Подобный чрезмерный контроль со стороны компании, когда сотрудник понимает, что каждый его шаг отслеживает ИИ, приводит к стрессам и вредит производительности. Контроль не только сказывается на экономической эффективности компании, но и может нарушить право на частную жизнь и нормы законодательства о персональных данных.

На данный момент позиция Роскомнадзора и судов в вопросе обработки ПД сотрудников довольно жесткая.

Так, с 1 сентября 2022 г. было изменено законодательство о персональных данных, ужесточившее обязанности работодателей в сфере ПД22. Теперь работодатель обязан в случае установления факта неправомерной или случайной передачи ПД уведомлять уполномоченный орган по защите ПД в течение 72 часов о результатах внутреннего расследования выявленного инцидента

(п. 1 ч. 3.1 ст. 21 Закон о защите персональных данных)23.

Это свидетельствует о том, что законодатель стремится к четкой регламентации вопросов обработки персональных данных. Следовательно, в случае масштабного внедрения ИИ в работу компаний необходимо предусмотреть четкие законодательные механизмы сбора такой информации, которые будут направлены на защиту права работников на частную жизнь и при этом помогать фирме эффективно использовать свои ресурсы.

Искусственный интеллект и биометрическая аутентификация


Сейчас распространена практика применения биометрической аутентификации по опечаткам пальцев, скану лица, сетчатки глаза или голоса24. Так, государственные органы, органы местного самоуправления и юридические лица могут использовать единую биометрическую систему для аутентификации физического лица после получения согласия25.

Такие системы, несомненно, могут упростить жизнь современному человеку:

  • ускорить процесс оплаты покупок (в сети магазинов X5, «Магнит», кафе «Прайм» и «ВкусВилл» запущена оплата по системе «Оплата одним взглядом»)26;
  • улучшить безопасность при заграничных перелетах (в современных загранпаспортах содержится биометрический электронный чип, позволяющий точно идентифицировать лицо, вылетающее за границу)27;
  • отслеживать опасных преступников и являться доказательством, предъявляемым в суде (так, КоАП РФ не предусматривает каких-либо ограничений или особенностей для признания фото, видеоматериалов, данных биометрической идентификации доказательствами по делу об административном правонарушении)28.

Однако биометрия, применяемая ИИ, может являться еще одной причиной нарушения норм о защите ПД. Нарушения норм о частной жизни связаны с деятельностью систем «умных камер» и «умного города».

Работа таких систем происходит в два этапа:
  • 1
    Нейросеть находит изображение (чаще по овалу лица), считывает его и затем сравнивает с теми, которые имеются у нее в базах
  • 2
    При нахождении сходств с определенным физическим лицом нейросеть выдает информацию об этом лице29.
При этом ИИ в таких ситуациях не привязывает ПД конкретного субъекта к числовым кодам изображения (англ. Facial Recognition), а сопоставляет лицо человека с имеющимися фото и видеоизображениями в системах и идентифицирует пользователей на основе имеющейся информации30.

С опорой на подобный механизм работы ИИ судебная практика приходит к выводу об отсутствии нарушения законодательства о ПД31. Подобная логика неоднократно используется государственными органами в вопросах мониторинга в период коронавирусной инфекции32, вручения повесток33 и выписывания штрафов за неоплату проезда. С одной стороны, подобное регулирование способно сократить количество правонарушений ввиду постоянного контроля «большого брата». С другой стороны, внедрение ИИ представляется обходом норм о ПД в части необходимости получить согласие субъекта ПД на обработку. Это рассуждение основывается на том, что государственные органы могут злоупотреблять предоставленными им правами и повышать риск утечки ПД.

Так, ст. 23 GDPR предусматривает исключения из правил о необходимости получить согласие субъекта, когда речь идет об обеспечении национальной безопасности, обороны, общественной безопасности и иных целях в общем публичном интересе Союза34. Похожая норма существует и в российском законодательстве (п. 1 ст. 152.2 ГК РФ). Она предусматривает возможность обработки информации в государственных, общественных и или иных публичных интересах35. Такие нормы открывают простор для, как заявлял И. А. Покровский, субъективно-свободного судебного произвола36.

Кроме того, подобное рассуждение позволяет государственным органам «избегать» предусмотренной за нарушение норм о защите ПД ответственности. Подобной точки зрения придерживается и ряд юристов37. Позиция основывается на том, что по факту государственным органам предоставляется свобода в определении границ законной государственной обработки ПД.

Так, немецкий судья К. Ранзони при толковании Конвенции в отношении гарантий защиты права в случае хранения ПД, делал вывод, что публичные цели не ограничиваются борьбой с терроризмом и национальной безопасностью, в связи с этим ПД могут быть предоставлены не только суду и прокуратуре, но и иным государственным органам (таможня, налоговая служба)38. В США также существует идея о необходимости предоставлять доступ к ПД правоохранительным органам39. Она была закреплена в Clarifying Lawful Overseas Use of Data Act (CLOUD Act) и позволила правоохранительным органам вне зависимости от места хранения ПД изымать данные у сервис-провайдеров40.

Это создает дисбаланс между интересами субъекта ПД и интересами государственных органов, желающих использовать ПД граждан без их согласия.

Кроме того, существование единых систем ПД, созданных государством, создает большие риски утечки ПД миллионов граждан и нарушения их конституционных прав и свобод. Полученные из «умных светофоров», камер наблюдения ПД попадают в единое цифровое хранилище данных (ЕЦХД41), доступ к которым может быть взломан.

В таком случае существует два пути борьбы с возможным нарушением норм о частной жизни в ходе внедрения системы «умного города»:

разработка механизмов по жесткому контролю за собранными данными и запрет на развитие подобных систем в целом.

Так, например, в некоторых городах США (Окленд, Беркли, Сан-Франциско) были приняты запреты на использование технологии распознавания лиц на улицах при помощи полицейских камер42. Подобная политика основывается на азиломарских принципах искусственного интеллекта, направленных на недопущение ограничения реальной или воспринимаемой свободы людей43.

Иными словами, биометрическая аутентификация также ставит под сомнение вопрос о защите частных интересов граждан, заставляя граждан избегать общественных мест44 и чувствовать себя под постоянным контролем со стороны ИИ.

Искусственный интеллект и систематизация персональных данных


ИИ способен соединять, систематизировать, ранжировать и извлекать собранные ПД с Интернет-сайтов45. Это может быть предпосылкой для создания системы социального рейтинга, которая уже существует в Китае (система социального доверия)46.

Такая система может, действительно, уменьшить количество маргинальных организаций и обеспечить превентивные меры развития преступности. Однако из-за формальных критериев, используемых при анализе информации, высок риск ошибок ИИ и нарушения конституционных принципов равенства граждан перед законом47, а именно ст. 19 Конституции Российской Федерации. Нарушения во многом связаны с технологиями, используемыми ИИ при принятии решений: опора ИИ на принятые ранее решения и существующие стереотипы, в том числе расовые, приводит к неготовности ИИ к нестандартным ситуациям и поведению граждан. Так, известно скандальное дело с арестом Роберта Уильямса, когда программа не смогла отличить его от другого темнокожего преступника48.

Еще одним вариантом нарушения равенства граждан может выступать контролируемое использование платформами дискриминирующих технологий ИИ. Исследования показывают, что ИИ может стать инструментом дискриминации определенных категорий граждан (например, известно дело Facebook, который смог при помощи алгоритмов ИИ исключить из потенциальных категорий арендаторов некоторые меньшинства: афроамериканцев, евреев и т. п.49). Подобное дискриминирующее воздействие ИИ было выведено в США неправительственной организации ProPublica. Она, проанализировав ИИ, используемый для оценки риска рецидива, вывела ряд дискриминационных положений в формируемых вопросах ИИ и его конечных результатах50.

Актуален и вопрос объективности применения санкций для лиц, совершивших правонарушения, которое было замечено ИИ. Так, гражданин в Китае не только может быть привлечен к уголовной или административной ответственности за совершение правонарушения, но может быть понижен в социальном рейтинге и ограничен в получении определенных благ (выезд за границу, посещение определенных мероприятий и т.п.).

Существование рейтингов наблюдается и в упомянутом ранее кейсе с компанией Amazon, которая на основе собранных ПД о водителях, составляла рейтинг безопасных таксистов51. Это обостряет риск стать «неблагонадежным» для ИИ в ситуациях, когда водитель сделал нестандартное, но правомерное действие, которое было воспринято ИИ негативно и повлияло на место в рейтинге.

Подобные инициативы крупных компаний идут в противоречие с Регламентом № 2018/1725 Европейского парламента и Совета Европейского союза "О защите физических лиц при обработке персональных данных", который определяет, что субъект ПД должен иметь право не подчиняться решению, которое основывается исключительно на автоматизированной обработке52. Подобной логикой обладает и ст. 16 ФЗ о ПД, запрещающей принятие юридических решений только на основании автоматизированной обработки ПД. Это опять же связано с возможными ошибками и недочетами ИИ, не способного решать нестандартные ситуации.

ИИ, являясь запрограммированным механизмом и используя универсальные критерии, способен упустить из виду определенные человеческие особенности (неправильно интерпретировать действия гражданина или не оценить определенное обстоятельство). Это создает угрозу базовым правам человека ввиду формальности и стереотипности действий ИИ53.


Иными словами, логика, изложенная в ст. 16 ФЗ о ПД, должна поддерживаться и являться фундаментальным аспектом в подобных действиях ИИ по систематизации информации.

Подведем итоги


На данный момент сложно дать однозначный ответ на вопрос о том, каким образом в будущем будет строиться взаимодействие системы ИИ и защита ПД. Существующая судебная практика и рассмотренные аргументы выше оставляют вопрос открытым и требующим дальнейших рассуждений в канве защиты права лица на частную жизнь. Необходимость такой политико-правовой идеи опирается на тот факт, что ИИ, собирая ПД, имея представления о ежедневных покупках человека, передвижениях, разговорах и даже состоянии здоровья, может контролировать жизнь человека, манипулировать его потребностями.

В свою очередь компании, осознавая коммерческую ценность созданных ИИ баз данных, будут заинтересованы в их покупке для дальнейшего продвижения своих товаров. Подобная практика подтверждается многомиллиардными суммами, которые компании-гиганты используют для развития технологий ИИ. Так, только за 2019 г. компания Microsoft инвестировала более 1 млрд евро в развитие ChatGPT OpenAI54. Подобные кейсы ставят под сомнение идею защиты ПД и их неприкосновенность. Безусловно, подобная политика компаний идет вразрез со ст. 9 Федерального закона Российской Федерации "О персональных данных" от 27.07.2006 № 152-ФЗ (далее - ФЗ о ПД) и создает нарушение права на частную жизнь, а также вызывает опасения со стороны юридического сообщества.

Кроме того, в связи с многочисленными утечками и постоянными взломами серверов больших компаний все больше ПД попадают в Интернет без согласия субъектов ПД. При этом субъекты не получают должных компенсаций за такие нарушения. Так, КоАП предусматривает максимальный штраф в размере 100 т. р. за невыполнение оператором условий сохранности ПД. Размер такого штрафа гораздо ниже выгоды, которую получит компания от передачи ПД 3-му лицу. Цены на такие слитые базы данных могут варьироваться: от 100 рублей до миллиона рублей за одну базу55. В этом плане России необходимо ориентироваться на опыт США в вопросах штрафов: США предоставляет большую свободу операторам в вопросе сбора и обработки информации, но при этом за нарушение локальных норм следуют весьма значительные штрафы, превышающие российские в несколько раз56.

Такими механизмами могут стать законодательные изменения, предусматривающие ответственность компаний за использование ИИ, а также государственные субсидии на разработку механизмов сбора, хранения персональных данных на серверах компании. Это позволит сократить издержки и сфокусировать внимание компании не только на выгоде от использования ИИ, но и на необходимости обеспечить приватность своим пользователям.

Еще одним важным механизмом будет считаться обеспечение прозрачности обработки собранных данных: право субъекта быть информированным о собранных ПД58 и создание системы доверия между операторами и субъектами ПД: субъект ПД понимает, как, с какой целью, каким образом обрабатываются его ПД, в свою очередь оператор и его сотрудники, пройдя системное обучение по работе с персональными данными, понимают их ценность и необходимость их защиты. Подобный подход наблюдается у американского законодателя: предоставление операторам свободы для создания системы доверия между субъектами ПД и операторами ПД59. Такое регулирование может быть использовано и в России.

В любом случае ключевой идеей работы автор отмечает необходимость развития правовых механизмов в соответствии с концепцией этического искусственного интеллекта57.

Такими механизмами могут стать законодательные изменения, предусматривающие ответственность компаний за использование ИИ, а также государственные субсидии на разработку механизмов сбора, хранения персональных данных на серверах компании. Это позволит сократить издержки и сфокусировать внимание компании не только на выгоде от использования ИИ, но и на необходимости обеспечить приватность своим пользователям.

Еще одним важным механизмом будет считаться обеспечение прозрачности обработки собранных данных: право субъекта быть информированным о собранных ПД58 и создание системы доверия между операторами и субъектами ПД: субъект ПД понимает, как, с какой целью, каким образом обрабатываются его ПД, в свою очередь оператор и его сотрудники, пройдя системное обучение по работе с персональными данными, понимают их ценность и необходимость их защиты. Подобный подход наблюдается у американского законодателя: предоставление операторам свободы для создания системы доверия между субъектами ПД и операторами ПД59. Такое регулирование может быть использовано и в России.

«
1 - так, Гугл заявил, что планирует использовать технологии ИИ для улучшения своей поисковой системы и конкуренции с другими компаниями в этой области.
2 - нейросеть Kandinsky 2.1 от Сбера привлекла большое внимание пользователей и проф. сообщества // Сбер [Электронный ресурс] // URL: https://ai.sber.ru/post/nejroset_kandinsky_21_ot_sbera_privlekla_bolshoe_vnimanie_polzovatelej_i_prof_soobshchestva (дата обращения: 05.05.2023).
3 - Васильева А.С.К вопросу о наличии авторских прав у искусственного интеллекта // Журнал СИП [Электронный ресурс] // URL: http://ipcmagazine.ru/asp/on-the-issue-of-copyright-in-artificial-intelligence дата обращения: 25.05.2023).
4 - власти США опасаются использования чат-ботов с ИИ для совершения преступлений и распространения ложной информации//Хабр Электронный ресурс] // URL: https://habr.com/ru/news/728308/ (дата обращения: 25.06.2023).
5 - Указ Президента РФ от 21 июля 2020 г. N 474 "О национальных целях развития Российской Федерации на период до 2030 года"[Электронный ресурс] // СПС КонсультантПлюс (дата обращения: 05.05.2023).
6 - Стратегии цифровой трансформации // Министерство цифрового развития, связи и массовых коммуникаций Российской Федерации. [Электронный ресурс] // URL: https://digital.gov.ru/ru/activity/directions/1064/?utm_referrer=https%3a%2f%2fwww.google.com%2f (дата обращения: 05.05.2023).
7 - ст. 2, Федеральный закон Российской Федерации "О персональных данных" от 27.07.2006 № 152-ФЗ // Собрание законодательства Российской Федерации. 2006 г. № 31. Ст. 3451.
8 - Закон Российской Федерации "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных"" от 24.04.2020 № 123-ФЗ // Российская газета. 28.04.2020 г. Ст. 2.
9 - Хубулова М.И. Искусственный интеллект в сфере труда // Трудовое право в России и за рубежом. 2022. N 3. С. 45.
10 - Искусственный интеллект: правовой взгляд: научная монография / РОО "Институт государственно-конфессиональных отношений и права". М.: Буки Веди, 2017. С. 54.
11 - Системы искусственного интеллекта: обзор определений // Телеграм [Электронный ресурс] // URL: https://www.google.com/search?client=safari&rls=en&q=howtocomply_AI&ie=UTF-8&oe=UTF-8 (дата обращения: 28.05.2023).
12 - Barfield, W. and U. Pagallo, 2015. Law and Artificial Intelligence. Edward Elgar, pp: 1-17.
13 - Ст. 3, Федеральный закон Российской Федерации "О персональных данных" от 27.07.2006 № 152-ФЗ // Собрание законодательства Российской Федерации. 2006 г. № 31. Ст. 3451
14 - Some products and services need data, but they don’t need to invade anyone’s privacy // [Electronic resource] available at URL: https://www.weforum.org/agenda/2022/03/designing-artificial-intelligence-for-privacy/ (date of access: 31 May 2023).
15 - Сервис Сбербанка «протек» по-крупному. Персональные данные десятков миллионов клиентов в свободном доступе// C-News [Электронный ресурс] // URL:https://safe.cnews.ru/news/top/2023-03-10_v_sberbank_protek_po-krupnomu#:~:text=»%20по%2Dкрупному.-,Персональные%20данные%20десятков%20миллионов%20клиентов
%20в%20свободном%20доступе,минимум%2047%2C9%20млн%20человек(дата обращения: 25.05.2023).
16 - Ястреб Н. А. Как проблема персональных данных меняет этику искусственного интеллекта? // Киберленинка [Электронный ресурс] // URL: https://cyberleninka.ru/article/n/kak-problema-personalnyh-dannyh-menyaet-etiku-iskusstvennogo-intellekta/viewer (дата обращения: 05.05.2023)
17 - В данном случае автор понимает под систематизацией действия, которые направлены на объединение и расположение полученных данных в определенной последовательности и порядке.
18 - Купцов Д.Э., Яшкунова М.Н. Практическое применение технологий искусственного интеллекта в трудовых отношениях: общие концепции и перспективы // Право и бизнес. 2023. N 1. С. 26.
19 - Купцов Д.Э., Яшкунова М.Н. Там же. С. 27.
20 - Вся зарплата уходит на штрафы: почему сотрудники Wildberries решились на забастовку
// Афиша Daily[Электронный ресурс] // URL: https://daily.afisha.ru/stories/25358-vsya-zarplata-uhodit-na-shtrafy-pochemu-sotrudniki-wildberries-reshilis-na-zabastovku/ (дата обращения: 05.05.2023).
21 - Amazon стал использовать «умные» камеры для контроля водителей доставки — нейросеть определяет их зарплаты и рейтинг
// DTF [Электронный ресурс] // URL: https://dtf.ru/hard/817370-amazon-stal-ispolzovat-umnye-kamery-dlya-kontrolya-voditeley-dostavki-neyroset-opredelyaet-ih-zarplaty-i-reyting (дата обращения: 05.05.2023).
22 - Персональные данные с 1 марта 2023 года // Астрал [Электронный ресурс] // URL: https://astral.ru/articles/dokumentooborot/39230/#:~:text=Уведомление%20об%20изменении%20персональных%
20данных%3A%20новый%20срок&text=С%201%20марта%202023%20года,месяцем
%2C%20в%20котором%20произошли%20изменения (дата обращения: 25.05.2023).
23 - Федеральный закон Российской Федерации "О персональных данных" от 27.07.2006 № 152-ФЗ // Собрание законодательства Российской Федерации. 2006 г. № 31. Ст. 3451.
24 - Биометрия: достоинства и недостатки // Cyber Media [Электронный ресурс] // URL: https://securitymedia.org/info/biometriya-dostoinstva-i-nedostatki.html#:~:text=Биометрическая%20аутентификация%20–%20это%20процедура%20опознавания,указательного%20пальца%2C%20просто%20невозможно%20забыть. (дата обращения: 05.05.2023).
25 - Ст 10 Федеральный закон от 29.12.2022 N 572-ФЗ
26 - Россияне стали чаще оплачивать покупки через сервис «Оплата одним взглядом» // NGS.Ru [Электронный ресурс] // URL: https://ngs.ru/text/gorod/2022/03/31/70731359/ (дата обращения: 05.05.2023).
27 - Новый загранпаспорт (биометрический)
// Гарант.ру [Электронный ресурс] // URL: https://www.garant.ru/actual/zagranpasport/biometric/ (дата обращения: 05.05.2023).
28 - Решение Московского городского суда от 23.09.2021 по делу N 7-13985/2021[Электронный ресурс] // СПС КонсультантПлюс (дата обращения: 05.05.2023).
29 - Кирина А. Искусственный интеллект, контроль и судебные споры // Административное право. 2021. N 4. С. 39 - 42.
30 - Использование системы видеонаблюдения – нарушение законодательства о персональных данных?// Гарант.ру [Электронный ресурс] // URL: https://www.garant.ru/news/1457381/ (дата обращения: 05.05.2023).
31 - Аппеляционное определение Московского городского суда по делу N 02а-0577/2019 Ма-33055/2019 // Суды общей юрисдикции города Москвы [Электронный ресурс] // URL: https://www.mos-gorsud.ru/rs/savyolovskij/services/cases/kas/details/988f386e-be51-47b0-b48f-e871043ef1fc?participants=Попова
32 - Использование системы видеонаблюдения – нарушение законодательства о персональных данных? // Гарант.ру [Электронный ресурс] // URL: https://vc.ru/legal/143370-zakon-ob-iskusstvennom-intellekte-v-moskve (дата обращения: 05.05.2023).
33 - Призывников в Москве найдут с помощью уличных камер с функцией распознавания лиц. Как это работает?// Объясняем [Электронный ресурс] // URL: https://rtvi.com/obyasnyaem/prizyvnikov-v-moskve-najdut-s-pomoshhyu-ulichnyh-kamer-s-funkcziej-raspoznavaniya-licz-kak-eto-rabotaet/ (дата обращения: 05.05.2023).
34 - Общий регламент защиты персональных данных (GDPR)
Европейского союза
// GDPR Text. [Электронный ресурс] // URL: https://gdpr-text.com/ru/read/article-23/ (дата обращения: 05.05.2023).
35 - Гражданский кодекс Российской Федерации (часть первая) от 30 ноября 1994 года №51-ФЗ // Собрание законодательства РФ, 05.12.1994. №32. ст. 3301.
36 - Покровский И.А. Основные проблемы гражданского права. 7-е изд., стереотип. М.: Статут, 2016. С. 107.
37 - Использование системы видеонаблюдения – нарушение законодательства о персональных данных?// Гарант.ру [Электронный ресурс] // URL: https://www.garant.ru/news/1457381/ (дата обращения: 05.05.2023).
38 - Дедов Д.И., Гаджиев Х.И. Комментарий к Постановлению Европейского суда по правам человека по делу "Брейер против Германии" // Журнал зарубежного законодательства и сравнительного правоведения. 2020. N 5. С. 119.
39 - Шамраев А.В. Правовые аспекты трансграничной передачи данных между ЕС и США // Международное публичное и частное право. 2022. N 4. С. 5.
40 - Promoting Public Safety, Privacy, and the Rule of Law Around the World: The Purpose and Impact of the CLOUD Act, White Paper. U.S. Department of Justice. April 2019.
41 - Закон об Искусственном интеллекте в Москве// VC.RU [Электронный ресурс] // URL: https://vc.ru/legal/143370-zakon-ob-iskusstvennom-intellekte-v-moskve (дата обращения: 05.05.2023).
42 - Protecting privacy in an AI-driven world// [Electronic resource] available at URL: https://www.brookings.edu/research/protecting-privacy-in-an-ai-driven-world/ (date of access: 01 June 2023).
43 - Нагродская В.Б. Новые технологии (блокчейн / искусственный интеллект) на службе права: научно-методическое пособие / под ред. Л.А. Новоселовой. М.: Проспект, 2019. С. 101.
44 - An Orwellian Premonition: a discussion on the perils of biometric surveillance// [Electronic resource] available at URL: https://edps.europa.eu/data-protection/our-work/publications/events/orwellian-premonition-discussion-perils-biometric_en (date of access: 01 May 2023).
45 - Например, ИИ Instant Data Scraper способен извлекать данные автономно от человека с Интернет-сайтов.
46 - Социальный рейтинг: за что жители Китая получают «бонусы», а за что подвергаются наказаниям// Пост.Наука[Электронный ресурс] // URL: https://postnauka.ru/faq/156636 (дата обращения: 05.05.2023).
47 - Харитонова Ю.С., Савина В.С., Паньини Ф. Предвзятость алгоритмов искусственного интеллекта: вопросы этики и права // Вестник Пермского университета. Юридические науки. 2021. N 3. С. 488 - 515.
48 - Можно ли ловить преступников с помощью искусственного интеллекта // Метро [Электронный ресурс] // URL: https://www.gazetametro.ru/legacy/articles/mozhno-li-lovit-prestupnikov-s-pomoschju-iskusstvennogo-intellekta-18-07-2020 (дата обращения: 25.05.2023).
49 - Facebook Lets Advertisers Exclude Users by Race. [Electronic resource] available at URL: https://www.propublica.org/article/facebook-lets-advertisers-exclude-users-by-race (date of access: 31 May 2023).
50 - Сушина Т.Е., Собенин А.А. Перспективы и риски использования искусственного интеллекта в уголовном судопроизводстве // Российский следователь. 2020. N 6. С. 23.
51 - Кирина А. Искусственный интеллект, контроль и судебные споры // Административное право. 2021. N 4. С. 40.
52 - П. 43, Регламент N 2018/1725 Европейского парламента и Совета Европейского Союза
"О защите физических лиц при обработке персональных данных, осуществляемой учреждениями, органами, службами и агентствами Союза, и о свободном обращении таких данных, а также об отмене Регламента (ЕС) 45/2001 и Решения 1247/2002/EC" [рус., англ.] [Электронный ресурс] // СПС КонсультантПлюс (дата обращения: 05.05.2023).
53 - Талапина Э.В. Алгоритмы и искусственный интеллект сквозь призму прав человека // Журнал российского права. 2020. N 10. С. 25 - 39.
54 - Microsoft анонсировала новые многомиллиардные инвестиции в создателя ChatGPT OpenAI // Forbes [Электронный ресурс] // URL: https://www.forbes.ru/tekhnologii/484087-microsoft-anonsirovala-novye-mnogomilliardnye-investicii-v-sozdatela-chatgpt-openai (дата обращения: 05.05.2023).
55 - «Нам чихать на мораль, законы и правительство»: кто ворует и продает базы с нашими личными данными// E1.ru [Электронный ресурс] // URL: https://www.e1.ru/text/gorod/2020/12/24/69652416/ (дата обращения: 05.05.2023).
56 - Россия и США: разница в подходах к защите персональных данных // VC.RU [Электронный ресурс] // URL: https://vc.ru/legal/496388-rossiya-i-ssha-raznica-v-podhodah-k-zashchite-personalnyh-dannyh (дата обращения: 28.06.2023).
57 - Ethics of Artificial Intelligence [Electronic resource] available at URL: https://www.unesco.org/en/artificial-intelligence/recommendation-ethics (date of access: 01 May 2023).
58 - Protecting privacy in an AI-driven world// [Electronic resource] available at URL: https://www.brookings.edu/research/protecting-privacy-in-an-ai-driven-world/ (date of access: 01 June 2023).
59 - Россия и США: разница в подходах к защите персональных данных // VC.RU [Электронный ресурс] // URL: https://vc.ru/legal/496388-rossiya-i-ssha-raznica-v-podhodah-k-zashchite-personalnyh-dannyh (дата обращения: 28.06.2023).
This site was made on Tilda — a website builder that helps to create a website without any code
Create a website