Готовое решение [rms] Corporation
гор. Тюмень. Пожалуйста, временно обращайтесь по адресу e-mail

Екатерина Михалевич, Проблемы злонамеренного использования искусственного интеллекта

Е.А. Михалевич,
главный специалист ПАО «Газпром нефть»
12.10.2023
Ekaterina_mikhalevich@mail.ru

Проблемы злонамеренного использования искусственного интеллекта в контексте международной информационно-психологической безопасности БРИКС на международном форуме «Россия и Ибероамерика в турбулентном мире: история и современность»

 5 октября в рамках шестого международного форума «Россия и Ибероамерика в турбулентном мире: история и современность» на базе Санкт-Петербургского государственного университета состоялись две сессии секции «Злонамеренное использование искусственного интеллекта и вызовы информационно-психологической безопасности БРИКС» под председательством профессора Е.Н. Пашенцева.

Рисунок 1. Выступление Е.Н. Пашенцева 

В своем докладе «Злонамеренное использование искусственного интеллекта: вызовы информационно-психологической безопасности в Бразилии» Е.Н. Пашенцев, д.и.н., ведущий научный Института актуальных международных проблем Дипломатической академии МИД России, профессор СПбГУ, отметил, что Бразилия активно развивает отрасль ИИ, растет число научных центров и специалистов соответствующего профиля.  Тем не менее, согласно новому отчету, опубликованному фирмой по кибербезопасности Trend Micro, Бразилия является второй страной в мире, наиболее уязвимой для кибератак. Бразилия уступала только Соединенным Штатам по количеству заблокированных угроз в первой половине 2023 г. Отчет компании Касперского также подтверждает, что Бразилия лидирует по числу киберугроз в Латинской Америке.  В феврале 2022 года Бразилия была включена в список Spamhaus стран, где было обнаружено наибольшее количество спам-ботов. Большинство этих ботов используются для рассылки спама, фишинга, и других вредоносных действий. Аналитики связывают обилие ботов в цифровом пространстве Бразилии с техническими, политическими и социально-экономическими факторами.

В докладе Е. Н. Пашенцева уделено значительное внимание рискам использования глубоких фейков, чатботов, эмоционального ИИ и других технологий на основе ИИ для подрыва информационно-психологической безопасности Бразилии. При этом обращается внимание на то, что в Национальной стратегии кибербезопасности Бразилии, принятой в 2020 г., несмотря на изложение плана по укреплению кибербезопасности страны на 2020-2023 гг., ничего не говорится о угрозах злонамеренного использования ИИ против информационно-психологической безопасности. Несмотря на то, что Бразилия намерена включить ИИ и дезинформацию в повестку дня следующего заседания Рабочей группы G20 по цифровой экономике (GT) в 2024 г., проходящий процедуру рассмотрения в сенате страны законопроект № 2338 от 2023 г., регулирующий системы ИИ в Бразилии, хотя и устанавливает права людей, пострадавших от применения этих систем, и предусматривает наказания за нарушения, даже не упоминает об угрозах злонамеренного использования ИИ в информационно-психологической сфере. Между тем, согласно проф. Пашенцеву, острые социально-экономические проблемы Бразилии, активизация правых кругов внутри страны, недовольство США независимым курсом Лулы да Силвы и дальнейшее весьма вероятное обострение международной обстановки приведут к резкому росту информационно-психологических операций против правительства Бразилии при растущей роли технологий ИИ на всех этапах их планирования и осуществления. 

Рисунок 2. Выступление Е.А. Михалевич

Е.А. Михалевич, главный специалист ПАО «Газпром нефть», в своем докладе «Китайские законодательные инициативы в противостоянии злонамеренному использованию ИИ в информационно-психологической сфере» рассказала о том, что для правительства КНР обеспечение информационно-психологической безопасности и социально-политической стабильности является важным компонентом поддержания общей архитектуры безопасности страны. Изучение нормативно-правовой базы КНР по контролю за использованием технологий глубокого синтеза вкупе с ее опытом в области противодействия угрозам злонамеренного использования ИИ путем внедрения системы социального кредита, цензурирования контента, распространяемого посредством социальных сетей, представляется важным для экспертов стран БРИКС, учитывая высокую степень неопределенности экономического и социально-политического развития в современном мире. Главной особенностью китайского подхода к защите от злонамеренного использования ИИ является форсированный опережающий характер развития данной сферы. Как следует из официальных документов, все новейшие технологические разработки непременно должны учитывать фактор предупреждения злонамеренного использования, обеспечивая, в том числе, информационно-психологическую безопасность. По мнению китайского правительства, первоочередными мерами для противодействия рискам злонамеренного использования ИИ должны стать разработка национальной и в дальнейшем международной нормативно-правовой базы, регулирующей сферу ИИ, создание системы социальной этики путем обучения граждан информационной грамотности, а также осуществление общественного мониторинга путем налаживания системы социального доверия. Изучение опыта Китая по направлению противодействия рискам злонамеренного использования ИИ может оказаться полезным для всех членов БРИКС.

Рисунок 3. Выступление Д.Ю. Базаркиной

В докладе «Злонамеренное использование искусственного интеллекта: риски информационно-психологической безопасности в Южноафриканской Республике», подготовленном Д.Ю. Базаркиной, д. п. н., ведущего научного сотрудника Отдела исследований европейской интеграции Института Европы РАН, рассматривается текущий уровень развития ИИ в ЮАР, а также существующие и потенциальные угрозы информационно-психологической безопасности, обусловленные злонамеренным использованием ИИ в этой стране, и инициативы по борьбе с ними. С развитием в стране сферы ИИ, появился целый ряд новых угроз информационно-психологической безопасности со стороны злонамеренного использования ИИ: социальная дестабилизация внутри страны, связанная с замещением ИИ людей на производстве, кибербуллинг, использование глубоких фейков в политическом противоборстве и т. д. Д. Ю. Базаркина отмечает, что большинство существующих рисков и угроз носит антропогенный характер: слабый ИИ используется самими людьми. В ответ на эти угрозы и риски правительство ЮАР разрабатывает национальное законодательство. Кроме того, в ЮАР также развиваются общественные инициативы, направленные на борьбу со злонамеренным использованием ИИ. Опыт ЮАР на данном направлении ценен для выработки общих принципов и механизмов противодействия «умным» психологическим операциям на основе ИИ в странах БРИКС. 

Рисунок 4. Выступление Мариуса Вакарелу (онлайн)

Мариус Вакарелу, доктор философии, советник проректора Национальной школы политических и административных исследований, Бухарест, в своем докладе «Злонамеренное использование Искусственного интеллекта против БРИКС: есть ли в этом необходимость?» отмечает, что геополитическая конкуренция представляется логичным и естественным продолжением развития технологий, влияющих на человеческое сознание и разум. В текущем веке борьба за глобальное превосходство ведется с помощью высокотехнологичных инструментов на основе ИИ, а тот факт, что право голоса стало универсальным, вынуждает все страны искать решения для информационно-психологической безопасности своих граждан. В этом контексте злонамеренное использование ИИ становится естественным в геополитическом соперничестве, несмотря на то, что официальный дискурс запрещает такие методы использования. В своем докладе д-р Вакарелу уделяет внимание перспективам использования ИИ в конкуренции между странами БРИКС и коллективным Западом. 

Рисунок 5. Выступление А.Н. Райкова (онлайн) 

А.Н. Райков, д.т.н., профессор, главный научный сотрудник Цзинанского Института суперкомпьютерных технологий Национального суперкомпьютерного центра в Цзинане (Китай) выступил с докладом «Противодействие злонамеренному использованию искусственного общего интеллекта благодаря повышению его способности объяснения». В своем докладе он отметил, что опасность злонамеренного использования ИИ и возможность противодействия такому использованию, будет стремительно расти с развитием вычислительной базы. К такому развитию относится увеличение мощности компьютеров, создание перспективных методов параллельных вычислений, а также улучшением объяснительных возможностей ИИ. Последние определяют уровень доверия к выводам и рекомендациям ИИ, которые могут быть правдивыми или ложными. ИИ пока не научился решать сложные междисциплинарные задачи для синтеза объяснений; однако его возможности растут очень быстро благодаря развитию генеративных версий ИИ и разработке больших лингвистических моделей, увеличению мощности суперкомпьютеров.

Уже ведутся разработки элементов сильного и общего искусственного интеллекта. Однако, например, возможности генеративных версий ИИ, базирующегося на логическом статистическом подходе имеют много ограничений, включая слабость учета персонализации и когнитивных семантик моделей ИИ, ограниченность длины токенов, игнорирование при создании искусственных нейронных сетей атомарной структуры естественных нейронов. Последние привносят в процессы смысловой обработки данных нелокальные квантовые и релятивистские эффекты. Рост производительности суперкомпьютеров ограничен трудностями дальнейшего уменьшения размеров транзисторов, большими энергозатратами на вычисления. Цифровое представление естественных аналоговых сигналов приводит к урезанию их спектров, и, как следствие, к увеличению времени вычислений при желании повысить их точность. Устранение таких ограничений требует новых научных исследований в области оптических вычислений, синтеза оригинальных оптических устройств и фотонных материалов. Эти исследования требуют международного и междисциплинарного научного сотрудничества и уникальной конвергентной технологии. Элементы такой конвергентной технологии и технологий оптических аналоговых вычислений нами отрабатываются в процессах коллективного стратегического планирования, а также моделирования на суперкомпьютерах сложных социальных и инженерных задач. 

Рисунок 6. Выступление В.А. Романовского (онлайн)

В.А. Романовский, исследователь из Белорусского государственного университета, в докладе «Приоритетные направления международного сотрудничества в области обеспечения международной информационно-психологической безопасности государств-членов БРИКС:
аспект злонамеренного использования искусственного интеллекта» подчеркнул, что повышение внимания стран БРИКС к проблематике противодействия злонамеренному использованию ИИ стало закономерным ответом на факт деградации системы международных отношений, что характеризуется нарушением общественной безопасности, принятием и заключением заведомо невыгодных решений и международных договоров, ухудшением отношений с другими государствами, созданием социально-политической напряженности. Использование технологий на основе ИИ, по мнению В.А. Романовского, является одним из определяющих факторов, влияющих на рост информационно-психологической напряженности. В условиях увеличения темпов регионализации информационной сферы и возрастания угроз информационно-психологической безопасности, повышается значимость международного сотрудничества в рамках многосторонних объединений, таких как БРИКС, в целях выработки общего понимания масштабов угроз и возможных методов противодействия. 

Рисунок 7. Выступление Пьера-Эммануэля Томанна

Пьер-Эммануэль Томанн, доктор философии, преподаватель геополитики в бизнес-школе EMlyon (Лион, Франция),  Католическом институте Вандеи (ICES, Рош-сюр-Йон, Франция) и Институте социальных, экономических и политических наук (ISSEP, Лион, Франция), президент ассоциации Eurocontinent (Брюссель),  в докладе «Злонамеренное использование ИИ и когнитивная война в контексте геополитического соперничества великих держав: опасность поляризации между многосторонними альянсами, такими как БРИКС, ШОС, ЕС, НАТО» отметил, что угрозы злонамеренного использования ИИ, в условиях когнитивного противоборства могут оказать глубокое и продолжительное воздействие на международную систему отношений посредством создания новых, несбалансированных геополитических иерархий. Это может привести к тотальной и перманентной войне и подвергнуть все человечество опасности. Многосторонняя система международных организаций типа ООН, ОБСЕ, НАТО и т. д., возникшая после Второй мировой войны, подвергается все большему числу вызовов, поскольку она основана на старом пространственном порядке, которого больше не существует. Одновременно мы наблюдаем расширение прав и возможностей новых многосторонних организаций, отражающих новый порядок, таких как БРИКС и ШОС. Профессор Томанн задается вопросом, можно ли избежать поляризации конкурирующих блоков различных государств и многосторонних организаций путем продвижения многостороннего сотрудничества в сфере обеспечения информационно-психологической безопасности, основанного на этическом и ориентированном на человека порядке в сочетании с лучшим геополитическим балансом сил. Очевидно, что продвигая новые модели глобального сотрудничества в области ИИ между «старыми» и «новыми» организациями и альянсами возможно предотвратить многие угрозы злонамеренного использования ИИ и избежать когнитивного противоборства. 

Рисунок 8. Выступление С.А. Себекина (онлайн)

С.А. Себекин, к. и. н., старший преподаватель кафедры политологии, истории и регионоведения Иркутского государственного университета, эксперт Института актуальных международных проблем Дипломатической академии МИД РФ, в докладе «Вызовы демократии в эпоху искусственного интеллекта: как информационно-психологическое воздействие посредством ИИ может повлиять на политические процессы (на примере стран БРИКС)» показал, как технологии ИИ позволяют влиять на политические процессы в странах БРИКС посредством формирования информационной повестки, управления политическими предпочтениями и «настройки» необходимого электорального поведения целевых групп. Подобное воздействие может быть чревато серьезными последствиями – масштабной дезориентацией населения, нарушением основ гражданского общества, подрыва самого демократического процесса. Стремительное внедрение систем ИИ в странах – членах БРИКС, существующие внутри этих стран социально-политические противоречия, давление враждебных геополитических акторов создают благоприятные возможности для информационно-психологического воздействия с активным использованием технологий ИИ. С.А. Себекин отмечает, что одна из прогнозируемых особенностей технологий информационно-психологического воздействия посредством ИИ – находить «болевые точки» в политических процессах тех или иных государств, ставя под угрозу репутацию политических деятелей, навязывая ложные представлений о политической ситуации, и подрывая доверие к политическим институтам.

Заключение

В работе двух сессий секции приняло участие как опытные, так и молодые исследователи, в том числе аспиранты и студенты из Бразилии, Беларуси, Китая, России, Румынии, Турции и Франции. Авторы восьми докладов ответили на многочисленные вопросы собравшихся. Подводя итоги двух сессий работы секции, необходимо отметить, что стремительное развитие ИИ сопровождается ростом угрозы его использования в злонамеренных целях. Технологии ИИ уже сегодня используются антисоциальными акторами, представляющими угрозу международной информационно-психологической безопасности. Угроза злонамеренного использования ИИ является многоуровневой, поэтому для эффективного противостояния необходимо введение на международном уровне технических, политических и юридических мер в рамках социально-ориентированного преобразования системы в соответствии с возможностями и рисками XXI столетия.

 ***

Ekaterina Mikhalevich, Chief Specialist of PJSC Gazprom Neft
12.10.2023
Ekaterina_mikhalevich@mail.ru

Malicious Use of Artificial Intelligence and Challenges for BRICS Psychological Security on International Forum "Russia and Ibero-America in a Turbulent World: History and Prospects" 

On October 5, within the framework of the VI International Forum “Russia and Ibero-America in a Turbulent World: History and Modernity” at St. Petersburg State University, two sessions of the Panel “Malicious Use of Artificial Intelligence and Challenges for BRICS Psychological Security” were held under the chairmanship of Professor Evgeny N. Pashentsev.

Picture 1. Speech by Evgeny N. Pashentsev 

In his paper “Malicious Use of Artificial Intelligence: Challenges to Psychological Security in Brazil” Evgeny N. Pashentsev, Dsc., Prof., Leading Researcher at the Center for Digital Studies and Chief Researcher at the Center for Global Studies and International Relations of the Institute of Contemporary International Studies at the Diplomatic Academy of the MFA, professor at St. Petersburg State University, noted that Brazil is actively developing the AI industry, the number of research centers and specialists in the relevant field is growing. However, according to a new report published by cybersecurity firm Trend Micro, Brazil is the second most vulnerable country in the world to cyber attacks. Brazil was second only to the United States in the number of blocked threats in the first half of 2023. The Kaspersky report also confirms that Brazil leads Latin America in the number of cyber threats. In February 2022, Brazil was included in the Spamhaus list of countries where the largest number of spambots were detected. Most of these bots are used to send spam, phishing, and other malicious activities. Analysts attribute the abundance of bots in Brazil's digital space to technical, political and socio-economic factors. Prof. Pashentsev paid significant attention to the risks of using deep fakes, chatbots, emotional AI and other AI-based technologies to undermine the psychological security of Brazil. At the same time, the speaker drew attention to the fact that the National Cybersecurity Strategy of Brazil, adopted in 2020, despite setting out a plan to strengthen the country’s cybersecurity for 2020-2023, does not provide a detailed assessment of the role of AI-based technologies in changing the level of threats to psychological security. Despite the fact that Brazil intends to include AI and disinformation on the agenda of the next meeting of the G20 Working Group on the Digital Economy (GT) in 2024, the bill No. 2338 of 2023, which is being considered in the country's Senate, regulating AI systems in Brazil, although it establishes the rights of people affected by the use of these systems, and it provides penalties for violations, does not even mention the threats of malicious use of AI in psychological sphere. Meanwhile, according to Prof. Pashentsev, Brazil's acute socio-economic problems, the activation of right-wing circles within the country, U.S. dissatisfaction with the independent course of Lula da Silva, and the further very likely aggravation of the international situation will lead to a sharp increase in psyops against the Brazilian government with the growing role of AI technologies at all stages of their planning and implementation. 

Picture 2. Speech by Ekaterina A. Mikhalevich 

Ekaterina Mikhalevich, Chief Specialist of PJSC Gazprom Neft, in her paper “China’s Initiatives in Countering MUAI in the Psychological Security Sphere” said that for the Government of the People's Republic of China, ensuring psychological security and socio-political stability is an important component of maintaining the overall security architecture of the country. Studying the regulatory framework of the PRC to control the use of deep synthesis technologies, coupled with its experience in countering the threats of malicious use of AI by introducing a social credit system and censoring content distributed through social networks, seems important for experts from the BRICS countries, given the high degree of economic uncertainty and socio-political development in the modern world. The main feature of the Chinese approach to protection against malicious use of AI is the accelerated, advanced nature of development in this area. As follows from official documents, all the latest technological developments must necessarily take into account the factor of preventing malicious use, ensuring, among other things, psychological security. According to the Chinese government, the priority measures to counter the risks of malicious use of AI should be the development of a national and international regulatory framework governing the field of AI, the creation of a system of social ethics by training citizens in information literacy, as well as the implementation of public monitoring by establishing a system of social trust. Learning from China's experience in addressing the risks of malicious use of AI could be beneficial for all BRICS members. 

Picture 3. Speech by Darya Yu. Bazarkina

In her paper “Malicious Use of Artificial Intelligence: Risks to Psychological Security in South Africa” prepared by Darya Yu. Bazarkina, DSc, Leading Researcher at the Department of European Integration Research, Institute of Europe of the Russian Academy of Sciences, examines the current level of AI development in South Africa, as well as existing and potential threats to psychological security caused by the malicious use of AI in this country, and initiatives to fight them. With the development of the AI sector in the country, a number of new threats to psychological security from the malicious use of AI have emerged: social destabilization within the country associated with the replacement of people by AI in production, cyberbullying, the use of deep fakes in political confrontation, etc. Darya Yu. Bazarkina notes that most of the existing risks and threats are anthropogenic in nature: Weak AI is used by people themselves. In response to these threats and risks, the South African government is developing national legislation. In addition, South Africa is also developing public initiatives aimed at combating the malicious use of AI. South Africa’s experience in this area is valuable for developing general principles and mechanisms for countering “smart” psychological operations based on AI in the BRICS countries. 

Picture 4. Speech by Marius Vacarelu (online)

Marius Vacarelu, Lecturer, PhD, Counselor of Vice-Rector, National School of Political and Administrative Studies, Bucharest, in his paper “Malicious Use of Artificial Intelligence against BRICS: A Necessity?” notes that geopolitical competition seems to be a logical and natural continuation of the development of technologies affecting human consciousness and intelligence. In the current century, the struggle for global supremacy is being waged with the help of high-tech tools based on AI, and the fact that the right to vote has become universal forces all countries looking for solutions for the psychological security of their citizens. In this context, the malicious use of AI becomes natural in geopolitical rivalries, despite the fact that official discourse prohibits such methods of use. In his paper, Marius Vacarelu focuses on the prospects for the use of AI in competition between the BRICS countries and the collective West. 

Picture 5. Speech by Aleksandr Raikov (online) 

Aleksandr Raikov, Сhief Scientist of the Jinan Institute of Supercomputing Technology (China) in his paper "Countering the Malicious Use of Artificial General Intelligence by Increasing Its Ability to Explain" noted that the danger of malicious use of AI and the possibility of countering such use will increase with the development of the computing base and AI technologies. This development includes increasing the power of computers, creating new parallel computing methods, and improving AI's explainable capabilities (Explainable AI). The latter determines the level of confidence in the conclusions and recommendations of the AI, which may be true or false. AI has yet to learn how to solve complex interdisciplinary problems to synthesise explanations; however, its capabilities are increasing due to the development of generative versions of AI and large linguistic models, increase in computer processing.

The development of elements of strong and general artificial intelligence is already underway. However, for example, the possibilities of generative versions of AI based on a logical, statistical approach have many limitations, including the weakness of taking into account the personalisation and cognitive semantics of AI models, the limited length of tokens, ignoring the atomic structure of natural neurons when creating artificial neural networks. The latter must introduce non-local quantum and relativistic effects into the processes of semantic data processing. The performance growth of supercomputers is limited by the difficulties of further reducing the size of transistors and enormous energy costs for calculations. The digital representation of natural analogue signals leads to a reduction in their spectra and, as a result, an increase in the calculation time, if desired, to increase their accuracy. Eliminating such limitations requires new scientific research in optical computing and synthesising original optical devices and photonic materials. These studies require international and interdisciplinary scientific collaboration and unique convergent technology. We are working out the elements of such convergent technology and optical analogue computing technologies in the processes of collective strategic planning, as well as modelling complex social and engineering tasks on supercomputers.

Picture 6. Speech by Vitali Romanovski (online) 

Vitali Romanovski, Researcher from the Belarusian State University (Minsk), in his paper “Priority Areas of International Cooperation in the Field of Ensuring International Psychological Security of the BRICS Member-States: Aspect of Malicious Use of Artificial Intelligence” emphasized that the increased attention of the BRICS countries to counteraction the malicious use of AI has become a natural response to the fact of degradation of the system of international relations, which is characterized by a violation of public security, the adoption and conclusion of deliberately unfavorable decisions and international treaties, and the deterioration of interstate relations, creating socio-political tensions. The use of AI-based technologies, according to Vitali Romanovski, is one of the determining factors influencing the growth of psychological tensions. The ongoing regionalization of the cyber-sphere and the rise of psychological security threats highlight the growing significance of international cooperation in multilateral associations such as BRICS to tackle these challenges and develop effective counteraction strategies. 

Picture 7. Speech by Pierre-Emmanuel Thomann

Pierre-Emmanuel Thomann, PhD, lecturer in geopolitics, EMlyon Business School, (Lyon France), The Catholic Institute of Vendée (ICES, Roche-sur-Yon, France) and the Institute of Social, Economic and Political Sciences (ISSEP, Lyon, France), the President of Eurocontinent (Brussels, Belgium), in his paper “MUAI and Cognitive War in Context of Great Power Geopolitical Rivalry : The Danger of Polarization between Multilateral Alliances like BRICS, SCO, EU, NATO instead of Cooperation” noted that in the context of multipolarity, threats from the malicious use of AI, especially “cognitive warfare,” could have a profound and lasting impact on the international system by creating new, unbalanced geopolitical hierarchies. This could lead to total and permanent war and put all of humanity in danger. At the same time, the multilateral system of international organizations such as the UN, OSCE, NATO, etc., which emerged after the Second World War, is increasingly being challenged because it is based on an old spatial order that no longer exists. At the same time, we are seeing the empowerment of new multilateral organizations reflecting the new order, such as BRICS and the SCO. Dr. Thomann asks whether the polarization of competing blocs of different states and multilateral organizations can be avoided by promoting multilateral cooperation in the field of psychological security based on an ethical and people-oriented order combined with a better geopolitical balance of power. It is clear that by promoting new models of global cooperation in the field of AI between “old” and “new” organizations and alliances, it is possible to prevent many threats of malicious use of AI and avoid cognitive warfare. 

Picture 8. Speech by Sergey A. Sebekin (online)

Sergey A. Sebekin, PhD, History, Senior Lecturer, Department of Political Science, History and Regional Studies, Irkutsk State University, Expert of the Institute of Contemporary International Studies of the Diplomatic Academy of the Ministry of Foreign Affairs of the Russian Federation, in his paper “Challenges to Democracy in the Age of Artificial Intelligence: How Information Influence Through AI Can Influence Political Processes (on the Example of the BRICS Countries)” showed how AI technologies make it possible to influence political processes in the BRICS countries by shaping the information agenda, managing political preferences and tuning the necessary electoral behavior of target groups. Such an impact can be fraught with serious consequences – large-scale disorientation of the population, violation of the foundations of civil society, and undermining the democratic process itself. The rapid implementation of AI systems in the BRICS member countries, the socio-political contradictions existing within these countries, and the pressure of hostile geopolitical actors create favorable opportunities for psychological influence with the active use of AI technologies. Dr. Sebekin notes that one of the predicted features of psychological influence technologies through AI is to find “pain points” in the political processes of certain states, jeopardizing the reputation of political figures, imposing false ideas about the political situation, and undermining trust in political institutions.

Conclusion

The two sessions of the panel were attended by established and young researchers, including postgraduates and students from Brazil, Belarus, China, France, Russia, Romania, and Turkey. The contributors of eight papers answered numerous questions from the audience. Summing up the results of the two sessions of the forum, it should be noted that the rapid development of AI is accompanied by an increasing threat of its use for malicious purposes. AI technologies are already being used today by antisocial actors who pose a threat to international psychological security. The threat of malicious use of AI is multi-layered, therefore, to effectively counter it, it is necessary to introduce technical, political and legal measures at the international level as part of a socially oriented transformation of the system in accordance with the opportunities and risks of the 21st century.

 

 

 

17 октября 2023
145 просмотров
Используя этот сайт, вы соглашаетесь на использование файлов cookie