PERSONA GRATA
В. С. ОВЧИНСКИЙ:
ГЕНЕРАТИВНЫЕ МОДЕЛИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА – ОПАСНЫЕ ВРАГИ ИЛИ ПОМОЩНИКИ СЛЕДОВАТЕЛЕЙ И ПОЛИЦЕЙСКИХ?V. S. OVCHINSKIY:
GENERATIVE MODELS OF ARTIFICIAL INTELLIGENCE: DANGEROUS ENEMIES OR ASSISTANTS TO INVESTIGATORS AND POLICE OFFICERS?
Интервью с Владимиром Семеновичем Овчинским, советником министра внутренних дел РФ, доктором юридических наук, заслуженным юристом РФ
Interview with Vladimir Semyonovich Ovchinskiy, Advisor to the Minister of Internal Affairs of the Russian Federation, Ph.D. in Law, Honored Lawyer of the Russian Federation
Визитная карточка
Овчинский Владимир Семенович – известный российский криминолог, генерал-майор милиции в отставке, доктор юридических наук, заслуженный юрист Российской Федерации.
В.С. Овчинский родился 23 февраля 1955 г. В 1976 году с отличием окончил Омскую высшую школу милиции МВД СССР. В 1976–1986 гг. В.С. Овчинский работал в ГУВД Московской области, в 1986–1992 гг. – во ВНИИ МВД СССР/России.
С 1992 г. В.С. Овчинский – помощник первого заместителя министра внутренних дел России, с 1995 – помощник Министра внутренних дел России.
С 1997 по 1999 гг. В.С. Овчинский – начальник Российского бюро Интерпола.
В 1999–2001 гг. – обозреватель по правовым вопросам еженедельника «Московские новости».
С 2004 г. по март 2011 г. В.С. Овчинский – Советник Председателя Конституционного суда РФ.
С 2004 г. – член Экспертного совета Комиссии ГД ФС РФ по противодействию коррупции.
С 2012 г. В.С. Овчинский – советник Министра внутренних дел РФ, ответственный секретарь Расширенной рабочей группы по реформированию органов внутренних дел России. В настоящее время В.С. Овчинский является советником Министерства внутренних дел Российской Федерации.
Владимир Семенович автор целого ряда работ по актуальным вопросам криминологии, оперативно-розыскной деятельности, современным проблемам противодействия преступности. Среди них – «Стратегия борьбы с мафией», «Оперативно-розыскная информация», «Основы борьбы с организованной преступностью», «Интерпол в вопросах и ответах», «XXI век против мафии», «Основы оперативно-розыскной деятельности», «Криминологическое измерение», «Криминология и биотехнологии», «Криминология кризиса», «Технологии будущего против криминала», «Иностранные боевики-террористы», «Час волка. Введение в хронополитику», «Искусственный интеллект», «Мафия: новые мировые тенденции», «Криминология американской власти» и многие другие.
В.С. Овчинский в качестве эксперта участвует в программах на телевидении и радио, дает интервью, публикует статьи по самым актуальным политическим и правовым вопросам современности.
*******************************************************
Интервью с Владимиром Семеновичем Овчинским
№ 11 (186) 2023г.
– Владимир Семенович, 2023 год в технологической сфере – это год широкого использования генеративного искусственного интеллекта ChatGPT – большой языковой модели (LLM), разработанной OpenAI. Эти модели обладают огромным потенциалом. Машинное обучение, от которого раньше ожидали решения только рутинных задач, доказало свою способность к сложной творческой работе. Генеративные модели ИИ регулярно совершенствуются и появляются новые версии, а технологические усовершенствования происходят все быстрее и быстрее. Это открывает широкие возможности для решения многих социальных задач, но, одновременно, это также может содержать большое количество криминальных риском, поскольку преступники сразу стали использовать ИИ в своих целях. Так ли это, или СМИ сгущают краски?
– К сожалению, так. В ответ на растущее внимание общественности к ChatGPT ученые и полиция США, Европы, Азии организовали в 2023 году ряд семинаров с экспертами в этой области, чтобы изучить, как преступники могут злоупотреблять ИИ, такими как ChatGPT, а также как это может помочь следователям и оперативным работникам полиции в их повседневной работе.
Целью семинаров было наблюдение за поведением ИИ при столкновении с криминальными и правоохранительными сценариями использования. Это поможет правоохранительным органам понять, какие проблемы могут представлять производные и генеративные модели ИИ.
– И какие криминальные сценарии использования ИИ выделяют в Интерполе и Европоле?
– Семинары Интерпола и Европола с участием профильных экспертов из всех областей компетенции международных полицейских организаций выявили широкий спектр криминальных сценариев использования генеративного ИИ. Последующая проверка показала, что все они работают.
ChatGPT отлично справляется с предоставлением пользователю готовой к использованию информации в ответ на широкий спектр запросов. Если потенциальный преступник ничего не знает о конкретном районе совершения преступления, ChatGPT может значительно ускорить процесс исследования, предлагая ключевую информацию, которую можно изучить на последующих этапах. Таким образом, ChatGPT можно использовать для изучения огромного количества потенциальных областей преступлений без предварительных знаний, начиная от способов проникновения в дом, заканчивая терроризмом, киберпреступностью и сексуальным насилием над детьми.
Хотя вся информация, которую предоставляет ChatGPT, находится в свободном доступе в Интернете, возможность использовать модель для совершения конкретных шагов, задавая контекстные вопросы, значительно облегчает злоумышленникам задачу лучшего понимания и последующего совершения различных видов преступлений.
– СМИ часто пишут, что особенно успешно ИИ используется в мошенничестве, когда преступники выдают себя за других людей, а также в социальной инженерии. Как и почему это происходит?
– Способность ChatGPT составлять высоко аутентичные тексты на основе подсказок пользователя делает его чрезвычайно полезным инструментом для фишинга. Если раньше многие элементарные фишинговые аферы было легче распознать из-за очевидных грамматических и орфографических ошибок, то теперь можно выдать себя за организацию или частное лицо в весьма реалистичной манере даже при базовом знании английского языка.
Очень важно, что контекст фишингового письма может быть легко адаптирован в зависимости от потребностей угрожающего субъекта: от мошеннических инвестиционных возможностей до взлома деловой электронной почты и обмана в отношении генерального директора. Таким образом, ChatGPT может предложить преступникам новые возможности, особенно для преступлений, связанных с социальной инженерией, учитывая их способность отвечать на сообщения в контексте и принимать специфический стиль письма. Кроме того, различные виды онлайн-мошенничества можно сделать более «легитимными», используя ChatGPT для создания поддельных социальных сетей, например, для продвижения мошеннического инвестиционного предложения.
До сих пор такие виды обманных сообщений преступники должны были создавать самостоятельно. В случае массового мошенничества объекты таких преступлений часто могли определить неаутентичность сообщения по очевидным орфографическим или грамматическим ошибкам, нечеткому или неточному содержанию. С помощью генеративного ИИ такие виды фишинга и онлайн-мошенничества могут быть созданы быстрее, гораздо более достоверно и в значительно больших масштабах.
Способность ИИ обнаруживать и воспроизводить языковые шаблоны не только облегчает фишинг и онлайн-мошенничество, но и в целом может использоваться для имитации стиля речи конкретных лиц или групп. Этой возможностью можно злоупотреблять в широких масштабах, чтобы ввести потенциальных жертв в заблуждение и заставить их довериться преступникам.
В дополнение к преступной деятельности, описанной выше, возможности ChatGPT позволяют использовать их в ряде потенциальных случаев злоупотребления в области терроризма, пропаганды и дезинформации. Таким образом, модель может быть использована для общего сбора информации, которая может способствовать террористической деятельности, например, финансированию терроризма или анонимному обмену файлами.
ChatGPT превосходно справляется с созданием аутентичного звучащего текста на скорости и в масштабе. Это делает модель идеальной для целей пропаганды и дезинформации, поскольку она позволяет пользователям генерировать и распространять сообщения, отражающие определенный нарратив, с относительно небольшими усилиями. Например, ChatGPT может использоваться для создания онлайн-пропаганды от имени других субъектов для продвижения или защиты определенных взглядов, которые были развенчаны как дезинформация или фальшивые новости.
Эти примеры дают лишь общее представление о том, что возможно. Хотя ChatGPT отказывается давать ответы на запросы, которые считает явно вредоносными, существует возможность обойти эти ограничения. Подобные приложения не только способствовали бы распространению дезинформации, языка вражды и террористического контента в Интернете, но и позволили бы пользователям придать им неуместное доверие, поскольку они были созданы машиной и, следовательно, могут показаться кому-то более объективными, чем если бы их создал человек.
– Говорят, особенно серьезные риски проявляются в киберпреступности. Почему это происходит?
– Помимо создания человекоподобного языка, ChatGPT способен создавать код на ряде различных языков программирования. Как и в других случаях использования, можно сгенерировать ряд практических результатов за несколько минут, введя нужные подсказки. Одной из областей преступности, на которую это может оказать значительное влияние, действительно является киберпреступность. С помощью текущеих версий ChatGPT уже можно создавать базовые инструменты для различных вредоносных целей. Несмотря на то, что инструменты являются лишь базовыми (например, для создания фишинговых страниц или вредоносных скриптов VBA), это позволяет человеку без технических знаний использовать вектор атаки на системе жертвы.
Такой тип автоматизированной генерации кода особенно полезен для тех преступников, которые практически не разбираются в кодировании и разработке. Очень важно, что меры защиты, не позволяющие ChatGPT предоставлять потенциально вредоносный код, работают только в том случае, если модель понимает, что она делает. Если подсказки разбиты на отдельные шаги, обойти эти меры безопасности проще простого.
Хотя инструменты, созданные ChatGPT, все еще достаточно просты, активное использование их субъектами угроз открывает мрачные перспективы в свете неизбежного совершенствования таких инструментов в ближайшие годы. На самом деле, способность ChatGPT преобразовывать подсказки на естественном языке в рабочий код была быстро использована злоумышленниками для создания вредоносного ПО. Еще в декабре 2022 года было опубликовано сообщение, демонстрирующее, как ChatGPT может быть использован для создания полного потока заражения, начиная с фишинга и заканчивая запуском обратной оболочки, принимающей команды на английском языке.
Ожидается, что возможности генеративных моделей, таких как ChatGPT, по оказанию помощи в разработке кода со временем будут совершенствоваться. Последняя версия генеративного ИИ уже могут оказать еще более эффективную помощь киберпреступникам. Новые модели лучше понимают контекст кода, а также исправляют сообщения об ошибках и устраняют ошибки программирования. Для потенциального преступника, не имеющего достаточных технических знаний, это бесценный ресурс. В то же время более опытный пользователь может использовать эти улучшенные возможности для дальнейшего совершенствования или даже автоматизации сложных методов действий киберпреступников.
– В последнее время правоохранители часто говорят и пользе ИИ в расследовании преступлений. Это просто мода, или генеративный ИИ может стать реальным помощником следователей?
– ИИ можно использовать, чтобы помочь правоохранительным органам автоматизировать и оптимизировать процесс расследования. Анализируя огромные объемы данных, ИИ может быстро выявлять закономерности и связи, которые в противном случае можно было бы упустить из виду. Это позволит следователям быстро идентифицировать потенциальных подозреваемых и получить всестороннее представление о месте преступления и его окрестностях.
Кроме того, ИИ можно применять для создания подробных отчетов по уголовным делам. Анализируя доказательства, ИИ может создавать исчерпывающие отчеты, которые можно использовать для поддержки уголовных дел в суде. Это могло бы значительно сократить количество времени и ресурсов, затрачиваемых на расследования, что позволило бы правоохранительным органам сосредоточиться на других важных задачах.
ИИ также можно использовать для выявления потенциальных связей между делами и подозреваемыми. Анализируя огромные объемы данных, модели GPT могут выявлять связи между различными делами и подозреваемыми, позволяя правоохранительным органам быстрее и точнее выслеживать подозреваемых.
Кроме того, GPТ может помочь сотрудникам правоохранительных органов лучше понять контекст уголовных дел. Анализируя доказательства и материалы дела, ИИ может генерировать подробные отчеты об истории и контексте дела, позволяя правоохранительным органам лучше понять, почему произошло преступление и как лучше всего подойти к расследованию.
В целом, ИИ может произвести революцию в методах расследования правоохранительных органов. Автоматизируя и оптимизируя процесс расследования, GPT может сэкономить время и ресурсы правоохранительных органов, позволяя им сосредоточиться на других важных задачах. Кроме того, способность GPT анализировать огромные объемы данных и выявлять закономерности и связи может помочь сотрудникам правоохранительных органов быстро идентифицировать потенциальных подозреваемых и получить всестороннее представление о месте преступления. Поскольку ИИ продолжает развиваться, его потенциальное применение в расследованиях правоохранительных органов будет только расти.
– А какие преимущества ИИ в улучшении криминалистического анализа?
– Используя GPT можно быстро выявлять соответствующие доказательства и создавать подробные отчеты. Кроме сравнения доказательств по нескольким делам, помогая следователям выявлять закономерности и связи между делами, GPT можно использовать для выявления расхождений в показаниях свидетелей, что позволяет следователям быстро выявлять любые несоответствия.
GPT может не только помочь повысить точность криминалистического анализа, но и сократить время, необходимое для проведения анализа. Автоматизируя определенные задачи, GPT может сократить время, затрачиваемое следователями на ручной анализ улик. Это может помочь снизить общую стоимость расследования, позволяя правоохранительным органам сосредоточить свои ресурсы на других областях.
– Может мы слишком надеемся на позитивный эффект от генеративного ИИ? Ведь наверняка существуют и потенциальные недостатки, связанные с использованием GPT в расследовании преступлений?
– Конечно существуют.
Во-первых, модели GPT ограничены в своей точности. Хотя их способность генерировать текст впечатляет, он не всегда может точно интерпретировать нюансы языка и контекста. Это может привести к ошибкам при толковании юридических документов или, например, при предоставлении юридических консультаций.
Во-вторых, GPT может быть уязвим для использования злоумышленниками. Имея доступ к этой технологии, преступники потенциально могут использовать ее для создания ложных доказательств или вводящих в заблуждение юридических рекомендаций для достижения своих собственных целей. Это может привести к неправомерным осуждениям и задержкам в отправлении правосудия.
Наконец, GPT может привести к эрозии человеческого опыта в юридических вопросах. Это может быть особенно проблематично в таких областях, как юридический анализ, где людям необходимо интерпретировать нюансы языка и контекста, чтобы делать точные выводы.
– В мире немало публикаций об этических вопросах использование ИИ в правоохранительных органах. Что здесь особенно настораживает?
– Многое. Например, эту технологию можно использовать для создания ложной информации, которая потенциально может быть использована для манипулирования расследованиями. Кроме того, использование GPT вызывает опасения по поводу конфиденциальности, поскольку эту технологию можно использовать для анализа больших объемов данных без ведома или согласия тех, за кем ведется наблюдение.
Кроме того, использование ИИ в правоохранительных органах вызывает вопросы о достоверности информации, которую он генерирует. Технология основана на алгоритмах машинного обучения, которые могут давать неточные или необъективные результаты, если их не обучить или не контролировать должным образом.
– Зарубежная полиция часто использует ИИ для прогнозирования и предотвращения преступлений. Что этому способствует?
– Модели GPT используют алгоритмы обработки естественного языка (NLP) и машинного обучения для анализа огромных объемов данных из различных источников, таких как социальные сети, новостные статьи и отчеты полиции. Выявляя закономерности и тенденции в этих данных, система ИИ позволяет прогнозировать потенциальную преступную деятельность и помогать правоохранительным органам принимать упреждающие меры для ее предотвращения. Это не только помогает снизить уровень преступности, но и позволяет полицейским управлениям более эффективно распределять свои ресурсы, гарантируя, что сотрудники будут развернуты там, где они больше всего нужны.
Одним из ключевых преимуществ использования GPT для «умной полиции» является его способность выявлять потенциальные точки доступа для преступной деятельности. Анализируя исторические данные о преступлениях и другую соответствующую информацию, системы GPT могут точно определить области, в которых с наибольшей вероятностью могут произойти криминальные инциденты. Это позволяет правоохранительным органам сосредоточить свои усилия на этих областях повышенного риска, что приводит к более целенаправленному и эффективному подходу к предупреждению преступности.
Кроме того, ИИ также может помочь в прогнозировании вероятности совершения конкретных видов преступлений в определенных областях. Например, он может определить, является ли конкретный район более подверженным кражам со взломом, нападениям или правонарушениям, связанным с наркотиками. Эта информация может иметь неоценимое значение для полицейских подразделений, поскольку позволяет им разрабатывать целевые стратегии для решения конкретных проблем с преступностью в различных сообществах.
Помимо прогнозирования преступлений, ИИ также может играть решающую роль в предупреждении преступности, выявляя потенциальные угрозы и риски до того, как они материализуются. Например, системы GPT могут отслеживать платформы социальных сетей и онлайн-форумы, чтобы обнаруживать любые признаки потенциальной преступной деятельности. Оповещая правоохранительные органы об этих угрозах, GPT позволяет им принимать быстрые меры для предотвращения совершения преступлений.
Систему генеративного искусственного интеллекта также можно использовать для анализа записей видеонаблюдения, помогая правоохранительным органам более эффективно выявлять и выслеживать преступников.
– Вы говорили о форумах международных полицейских организаций по проблемам ИИ. Наверняка существуют и рекомендации этих форумов по безопасному использованию ИИ?
– Безусловно.
Например, Европейский союз в мае 2023 года завершил работу над законодательными мерами, направленными на регулирование систем ИИ в рамках готовящегося закона об ИИ. Но, несмотря на некоторые предложения о том, что системы ИИ общего назначения, такие как ChatGPT, должны быть отнесены к системам высокого риска и, как следствие, отвечать более высоким нормативным требованиям, остается неопределенность в отношении того, как это может быть практически реализовано.
В мае 2023 года на голосовании в Европарламенте депутаты предварительно одобрили усиленную версию Закона об искусственном интеллекте. После его принятия будут запрещены технологии распознавания лиц в общественных местах, а также применение полицией предиктивной аналитики.
Американцы таких запретов на государственном уровне не вводят.
В будущем всеобщая доступность больших языковых моделей может создать и другие проблемы: интеграция других сервисов ИИ (например, для создания синтетических медиа) может открыть совершенно новое измерение потенциальных приложений. Они могут включать мультимодальные системы ИИ, которые объединяют разговорные чат-боты с системами, способными создавать синтетические медиа, например, очень убедительные deepfakes, или содержать сенсорные способности, такие как зрение и слух. Другие потенциальные проблемы включают появление “темных ИИ”, которые могут быть размещены в “темной паутине” для предоставления чат-бота без каких-либо гарантий, а также LLM, которые обучаются на определенных – возможно, особенно вредных – данных. Наконец, существует неопределенность относительно того, как LLM-сервисы могут обрабатывать данные пользователей в будущем – будут ли храниться разговоры, что может привести к раскрытию конфиденциальной личной информации неавторизованным третьим лицам? И если пользователи генерируют вредный контент, следует ли сообщать об этом правоохранительным органам?
Поскольку в ближайшем будущем ожидается рост влияния таких генеративных ИИ, крайне важно, чтобы правоохранительное сообщество подготовилось к тому, как их положительное и отрицательное применение может повлиять на их повседневную деятельность.
Учитывая потенциальный вред, который может быть нанесен в результате злонамеренного использования ИИ, крайне важно повысить осведомленность в этом вопросе, чтобы гарантировать, что любые потенциальные лазейки будут обнаружены и закрыты как можно быстрее.
Правоохранительным органам необходимо понять это влияние на все потенциально затрагиваемые сферы преступности, чтобы иметь больше возможностей для прогнозирования, предотвращения и расследования различных видов преступных посягательств.
Сотрудникам правоохранительных органов необходимо начать развивать навыки, необходимые для максимально эффективного использования таких моделей, как ChatGPT. Это означает понимание того, как можно использовать эти типы систем для накопления знаний, расширения имеющегося опыта и понимания того, как извлечь необходимые результаты. Это означает, что следователи и оперативные работники должны уметь оценивать контент, создаваемый генеративными моделями ИИ, с точки зрения точности и потенциальной предвзятости.
Поскольку технологический сектор вкладывает значительные средства в эту область, крайне важно взаимодействовать с соответствующими заинтересованными сторонами для обеспечения того, чтобы соответствующие механизмы безопасности оставались ключевым моментом, который постоянно совершенствуется.
Правоохранительные органы, вероятно, захотят изучить возможности создания специализированных ИИ, обученных на их собственных, специализированных данных, чтобы использовать этот тип технологии в своей работе при условии учета основных прав. Такой тип использования потребует соответствующих процессов и мер предосторожности для обеспечения конфиденциальности информации, а также тщательного изучения и устранения любых потенциальных предубеждений до начала использования.
Крайне важно отслеживать другие возможные ветви этого развития, поскольку темные ИИ, обученные содействовать вредоносному выходу, могут стать ключевой криминальной бизнес-моделью будущего. Это создает новую проблему для правоохранительных органов, поскольку злоумышленникам станет как никогда легко совершать преступные действия без необходимых предварительных знаний.
Основываясь на международном опыте, Россия предпринимает упреждающие меры на этом направлении. В МВД России создано специализированное Управление по противодействию преступлениям в сфере информационно – коммуникационных технологий, с соответствующими подразделениями во всех субъектах РФ. Эта новая служба, наряду с традиционными проблемами борьбы с киберпреступностью, решает двуединые задачи – использование генеративного ИИ в борьбе с криминалом, и, одновременно, недопущения его применения в криминальной сфере.
– Что бы Вы пожелали читателям нашего журнала?
Хотелось бы выразить благодарность коллективу международного-научного издания «Евразийский юридический журнал» за предоставленную возможность поделиться своими мыслями и идеями и мыслями в ходе интервью. Желаю коллективу издательства творческих успехов, а авторам – интересных материалов.
– Большое спасибо за содержательное интервью.
Интервью брали: