Политически кибермаркетинг – начини на употреба

Политическа комуникация и дигитализация

Political Communication and Digitalisation

 DOI 10.55026/CWZO6130

Борислав Виларов

Софийски университет „Св. Климент Охридски“

Управител на „ПроИмидж и Комуникация“ ЕООД

Имейл: vilarowbg62@gmail.com

Абстракт: В статията е изследван проблемът за използване на алгоритми и информационни технологии в политиката и предизборните кампании от 40-те години на 20. век. За пръв път е въведено понятието „политически кибер­маркетинг“ и е дадено определение. Темата е значима от гледна точка на влия­нието на информационните технологии и изкуствения интелект (ИИ) във всяка една сфера на човешка дейност. Скандалите около въздействието на компютърната пропаганда и насочването на реклами и послания чрез микро­таргетинг по време на Брекзит, и президентските избори в САЩ през 2016 г., и хибридната война, която водят авторитарни режими срещу де­мократичните общества поставят както етични въпроси относно границите на влияние на изкуствения интелект, така и необходимостта от регулация, контрол и образование на гражданите, относно възможностите на новите технологии да влияят върху техния избор в демократичния процес и об­щест­вения дебат по актуални теми. През 20-те години на 21. век САЩ, Велико­британия, ЕС, Китай и други държави въвеждат регулации за използване на изкуствен интелект с цел намаляване на потенциалните рискове и стиму­лиране на развитието му.

 

Ключови думи: алгоритми, информационни технологии, политически ки­бер­маркетинг, микротаргетинг, конструиране на общественото мнение, ком­пютърна пропаганда.

Political Cybermarketing – Ways to Use It

 

Borislav Vilarov

Sofia University “St. Uliment Ohridski”

Manager of ProImage and Communication, Ltd

E-mail: vilarowbg62@gmail.com

Abstract: The article examines the problem of using algorithms and information technologies in politics and election campaigns since the 1940s. The term “po­litical cyber marketing” is introduced and defined for the first time. The topic is significant in view of the influence of information technology and artificial in­telligence (AI) in every sphere of human activity. The scandals surrounding the impact of computer propaganda and microtargeting of advertisements and mes­sages during Brexit campaign and the 2016 US presidential election in addi­tion to the hybrid warfare that authoritarian regimes are waging against demo­cratic societies raise both ethical questions about the limits of artificial intelligence influence and the need for regulation, control and education of citizens about how new technologies influence their choices in the democratic process and the public debate on current topics. In the 2020s, the USA, the UK, the EU, China and other countries introduce regulations on the use of artificial intelligence in order to reduce potential risks and stimulate its development.

Keywords: algorithms, information technology, political cyber marketing, micro­targeting, social construction of public opinion, computer propaganda.

 

Въведение

В научната литература за пръв път се използва терминът политически кибермаркетинг. Той все още не е формализиран и изучен като област на знанието. Изследването представя научните дирения в използването на циф­­рови алгоритми, компютърни технологии и пропаганда, ИИ и со­циал­ните медии в политическата практика. Изследването цели да се верифицира хипотеза на автора относно регулацията и/или повишаване на образова­ние­то на гражданите, като отговор на конструирането на общественото мнение, чрез новите цифрови технологии.

Генезиса на понятието политически маркетинг е пряко свързано с по­нятия като власт, демокрация и обществено мнение. От най-древни вре­мена елитите са търсили механизми за въздействие върху общественото мне­­ние. Днес политиците се стремят към конструиране на общественото мне­ние чрез развитието на дигиталните комуникации, разбирането за вир­туален гражданин и мрежовото общуване.

Изследването на механизмите за въздействие на политическия кибер­маркетинг, конструирането на обществено мнение и изграждане на доверие е в основата на хипотезата на настоящето изследване. Дигиталните техно­логии могат да манипулират общественото мнение чрез създаване на вир­туални илюзии. Затова е необходимо известна регулация, но тя сама по себе си не може да реши проблемите. Освен регулация е необходимо и образо­вание на гражданите.

Изследването е базирано на проучване на практиката при използ­ва­нето на кибертехнологии в процеса на политическо общуване. Разглеждат се различни казуси при изследване и конструиране на общественото мнение чрез кибертехнологии, ИИ и социалните медии. Все по-отчетливо се наблю­дава тенденция на създаване на ехо камери, фалшиви новини, псевдосъ­бития и дийпфейк [1], която води до дефицит на справедливост, когнитивен дисонанс и липса на доверие между управлявани и управляващи.

Новите технологии създават позитивни условия за развитие на науката и решаване на редица проблеми, но крият и много рискове. Тук е мястото на специалистите по политически маркетинг и комуникации да предупредят обществото за рисковете, да възпитат и образоват гражданите, да консул­тират политиците и да изградят доверие между управляващи и управлявани.

Основната хипотеза е, че само чрез регулация на виртуалното прост­ранство не могат да се минимизират рисковете пред съвременните демокра­тични общества. Затова е необходимо успоредно с регулацията да се възпи­тават и образоват съвременните поколения, за да бъдат устойчиви към фал­шивите новини и манипулации чрез ИИ.

На границата на „Новата политическа наука“ [2]

До 1948 г. политическите предизборни прогнози се правят чрез де­москопски проучвания. За пръв път през 1948 г. се прогнозира победата на президента Х. Труман с демографски и статистически данни, за да се из­мерят политическите вълни. [3] Проучвания показват, че съществуват фак­тори (социална класа, религиозен произход, семейна лоялност, взаимоотно­шения на работното място, местни групи за натиск, средства за масова комуникация и др.), които влияят на поведението на избирателите. [4] През 1952 г. Remington Rand прави точна компютърна прогноза за съкруши­тел­ната победа на ген. Д. Айзенхауер. [5]

В края на 50-те години на 20. в., учени от Масачузетския техноло­гичен институт (МТИ) предлагат нов подход за симулация на общественото мнение. Проект Macroscope е подкрепен от Демократическата партия. Чрез анализ на „избирателните вълни“, компютърно прогнозиране и постиже­нията на бехейвиоризма, учените разработват модел за търсене на неуловим избирател, който може да промени поведението си в резултат на кръстосан натиск. [6]

През 1959 г. Simulmatics създава база данни с политически нагласи, за прогнозиране на промени в гласуването чрез корелация между проблеми и социални променливи. През 1960 г. екипът на Дж. Кенеди поръчва на Simulmatics доклади за образите на Кенеди и Никсън, и външната политика като въпрос на кампанията. Експертите използват поведенческата теория за кръстосан натиск и цифрови модели на базата на човешкото поведение, ценности и нагласи. Резултатите са изчислени чрез компютърни алгоритми. [7]

Според Харолд Ласуел, Проектът Macroscope на Simulmatics Corpora­tion за компютърно моделиране и прогнозиране на обществените нагласи, представлява атомната бомба на социалните науки. Според него за пръв път е използван ИИ в широк смисъл.  [8]

Проектът Macroscope на МТИ е последван от други проекти, свързани с развитието на политологията, кибер науката, психографията и развитието на ИИ: проект Cambridge (интегриране на бихейвиоризма и кибер науката в политиката и управлението) [9], Tanjo’s Animated Personas (TAPs) на Blue State Digital (скриване на индивида чрез моделиране на аномирани пер­сонажи), позволява нов подход за изследване и тестване на аудиторията [10] и др. При разработването на компютърни модели в политиката е използвана теорията на Карл Дойч за нервите на правителството, концепциите за об­ратна връзка, капацитет на комуникационните канали, паметта, съзна­ние­то, волята и социалното обучение. [11]

Петфакторен модел на личността (FFM)

През 60-те години на 20. в. Ърнест Тюпс и Реймънд Кристал разра­ботват петфакторен модел на личността (FFMР), известен още като моделът OCEAN. Моделът е усъвършенстван от Джон Дигман и Люис Голдбърг през 90-те години на 20. в. Той е разработен на базата на начина на мислене, чувствата и поведението на индивидите, които са относително трайни през целия живот. Моделът OCEAN [12], [13] разкрива семантични асоциации, думи (вербални дескриптори), използвани за описване на отделни аспекти на личността. Всеки основен фактор е свързан с първични фактори, лич­ностни черти, които са групирани чрез факторен анализ, въпросници за са­мооценка и оценки на връстници. Основните фактори са обединени в лич­ностни черти:

  • О (Openness Openness to experience) – отвореност към опита (изоб­­ре­тателност, любопитство);
  • C (Conscientiousness) – добросъвестност (съзнателност, ефектив­ност, организираност);
  • E (Extroversion) – екстровертност (комуникативност, енергичност, динамични социални контакти);
  • A (Agreeableness) – дружелюбност (изобретателен, приятелски на­сочен към другите);
  • N (Neuroticism) – невротизъм (емоционална стабилност, чувстви­телен, издръжлив).

 

Нов етап в развитието на политическия маркетинг

Съвременната практика на провеждане на предизборни и публични кам­пании чрез цифрови технологии и социални медии, създават нова дигитална реалност, която можем да определим като нов период на развитие на полити­ческия маркетинг – етап на политически кибермаркетинг. Полити­ческият кибермаркетинг е съвременен политически маркетинг базиран на кибер­алгоритми, психография, микротаргетиране, анализ на големи бази данни и насочване на персонални реклами чрез социалните медии и цифрови технологии на базата на ИИ. Микротаргетирането дава възможност за иден­тифициране и изучаване на конкретни отделни личности и малки социални групи. Чрез анализ на големи бази данни извлечени от социалните медии и потребителски цифрови платформи, посредством ИИ се прави анализ на пси­хологическите нагласи на малки социални групи, които са бомбардирани с персонални реклами, които често са неуловими и не може да им се противо­действа. В резултат се променя поведението на гражданите и избирателите (конструиране на обществено мнение), често в последния момент преди из­бори. Кристализацията на общественото мнение в последния момент преди вот, затруднява специалистите и политиците правилно да предвидят поведе­нието на избирателите.

Политическият кибермаркетинг започва да се налага през последните двадесет години чрез закупуване на големи данни с нагласите на избирателите (за кого са склонни да гласуват, какво харесват, от какво се интересуват) и на­сочването към тях на реклами и статии чрез социалните медии. [14] Този киберполитически маркетинг става публичен след 2016 г. във връзка със скан­дала „Cambridge Analytica – Facebook“, кампанията на сенатора от Репуб­ликанската партия Тед Круз през 2016 г. за първични президентски избори, президентската кампания на Доналд Тръмп (2015–2016 г.) и Референдумите Брекзит (2016 г.) и за независимост на Каталуния (2017 г.).

Анализите на скандалите с въздействието върху избирателите по време на президентската кампания на Д. Тръмп в САЩ и Референдумът за Брекзит във Великобритания, дават основание на специалисти по компютърна про­паганда да констатират, че не става дума просто за социално инженерство, а за „… въоръжена машина за пропаганда на ИИ …“, „… използвана за ма­ни­пулиране на нашите мнения и поведение за прокарване на конкретни по­ли­тически програми …“. [15] Според редица изследователи Cambridge Analytica е използвала автоматизирана емоционална манипулация, микро­таргетиране, A/B тестове, пропагандни медии и сайтове, тъмни публикации във Facebook [16], ботове, тролове в Twitter, Facebook, YouTube и мрежи за фалшиви новини, за да се активира невидима машина, която преследва конкретни личности, за да създаде големи промени в общественото мнение.

Много от тези технологии са били използвани поотделно и по-рано, но заедно те представляват тайна машина за манипулиране на гражданите, при реализиране на публични кампании и изграждане на доверие между управ­лявани и управляващи или сриването му.

Опитът за конструиране на обществено мнение, дестабилизиране и пов­лия­ване на различни демократични процедури, има дълга предистория от вре­мената на Студената война. За целта се използват психологически операции за конструиране на обществено мнение в комбинация с модерни кибер­техно­логии и от двете страни на „желязната завеса“. Тези опити никога не са спи­рали, но стават особено интензивни след 2008 г., и са част от хибридната война, която Русия и други авторитарни държави водят срещу демократичния свят. В доклад на американските служби е посочено, че се очаква руските служби в бъдеще да използват кибертехники за влияние по целия свят. [17] Специалните служби и мрежи от тролове, които седят зад тази кибервойна, се опитват да подкопаят доверието между управляващи и управлявани, да насър­чат радикалното недоволство и конфликти в отделните общества, да очернят и тормозят отделни личности, внушават и разпространяват конспиративни тео­рии, разпалват омраза срещу чужденци и се стремят да разрушат  либерално-демократичните държави. [18]

Руската стратегия комбинира:

  • тайни пропагандни кибероперации;
  • явни усилия на руски правителствени агенции и държавни медии;
  • посредници от трети страни;
  • платени потребители на социални медии (тролове, ботове, тъмни мре­жи);
  • реклама и микротаргетиране в социалните медии, контролирани от западни мегакомпании (Facebook, Twitter, YouTube и Google);
  • създаване на мрежа за финансиране и влияние;
  • корумпиране на влиятелни политици, висши държавници служители и бизнесмени. [19]

През 2017 г. се появява Големият езиков модел (LLM), който използва изкуствена невронна мрежа. LLM представлява концепцията за езиков модел в ИИ, която е доразвита със създаването на генеративен ИИ – чатбот (chatbot), който представлява алгоритъм с ИИ. Чатботовете имитират човешки събесед­ник, комуникират с хора, и изпращат съобщения чрез дигитални платформи. Езиковият модел ChatGPT версия 4 (март 2023 г.) на Open AL може да пише текстове по зададени теми, да композира музика и да генерира изображения. В началото на 2024 г. стартира BgGPT на INSAIT – първият модел на ИИ за български език. Новите версии на ChatGPT могат да генерират потоци от фал­шиви новини и да манипулират общественото мнение, което застрашава осно­вите на демократичните общества.

Очаква се ИИ да стане разумен, чувствителен (Sentient AI), да има собст­вена воля и да започне да взима самостоятелни решения. Разликата между генеративен и разумен интелект е разлика между съвместим с човека ИИ и разумен ИИ. Чувственият ИИ ще създаде изцяло нов свят и възможности за технологична революция.

Регулация на ИИ и политическата реклама в социалните медии

В периода 2017 – 2023 г. редица държави приемат регулации за стиму­лиране развитието на ИИ и гаранции за ограничаване на възможностите за дезинформация и манипулация. През 2023 г. китайското правителство приема план, чиято цел е до 2030 г. Китай да стане глобален лидер в развитието на ИИ. На 30 октомври 2023 г. президента на САЩ публикува указ за регулиране използването на ИИ. През 2023 г. Великобритания въвеждат седем ключови принципа за регулация на ИИ. В края на 2023 и началото на 2024 г. ЕС приема  Законодателен акт за изкуствения интелект (ЗАИИ) и Регламент за прозрач­ност и насочването (усилване) на политическата реклама. ЗАИИ предвижда стан­дарт за класифициране и управление на риска, прозрачност и отчетност на ИИ и компаниите, които го разработват. [20], [21]

Заключение

Все по често ИИ се използва за манипулиране и разпространяване на фалшиви новини по време на референдуми, предизборни и публични кам­пании в цял свят. Първото опитно поле на ИИ в предизборни кампании бе на президентските изборите в Аржентина през 2023 г. ИИ се използва в предиз­бор­­ните кампании за дезинформация, анализ на данни, писане на имейли за наби­ране на средства, персонални съобщения и реклами, писане на речи и др. Про­учвания в САЩ показват, че над 50% от американците очакват генери­раните от ИИ неистини да окажат влияние върху президентските избори през 2024 г., поради което една трета от американските избиратели заявяват, че ня­мат до­верие на изборните резултати. Това недоверие подклажда чувства на гняв от демократичния изборен процес сред обществеността.

Въпреки предприетите мерки за регулация на използването на ИИ и онлайн политическата реклама, практиката показва, че компютърната про­паганда е трудно уловима. В края на 2023 г. в Германия бе установено, че Русия манипулира германското общество и го настройва срещу Украйна – за месец са публикувани над 1 милион съобщения в социалната мрежа X (Туитър) на Илон Мъск, чрез 50 000 фалшиви акаунти. [22] Целта е да се намали подкре­пата за украинците, създаване на недоверие към германските политици и подкрепа на немската крайната десница, която симпатизира на режима на Вл. Путин. Според германското разузнаване кибератаката е дело хакерската група APT28 (Fancy Bear/ Pawn Storm), която е свързана с ГРУ. [23]

Този пример поставя въпроса, доколко регулацията може да бъде ефек­тивна преграда пред компютърната пропаганда, дезинформация и манипу­лации. Ето защо, паралелно на мерките за регулация е необходим сериозен мониторинг на подобни кампании и образование и ограмотяване на гражда­ните, за да разпознават и по-трудно да се поддават на подобни манипулации.

Цитати и бележки

[1] Дийпфейк (Deepfake – англ. ез.) – медии и медийни продукти, произведени от ге­нериращ ИИ. Технологии, с които се създават реалистично изглеждащи фалшиви клипове с лицата на истински хора.

[2] White, H. B. (1961). The Processed Voter and the New Political Science. Social Research, 28(2), 127–150. https://www.jstor.org/stable/40969367. Retrieved on 10.01. 2024.

[3] Bean, L. (1948). How to Predict Elections. (1st еd.) A.A. Knopf., 12.

[4] Barelson, B., Lazarsfeld, P., & McPhee, W. (1954). Voting: A Study of Opinion Forma­tion in a Presidential Campaign. (1st еd.) University of Chicago Press.

[5] Lepore, J. (2018). These truths: A history of the United States. (1st еd.) W. W. Norton & Company, 559.

[6] Pool, I. de S., & Abelson, R. (1961). The Simulmatics Project. The Public Opinion Quarterly, 25(2), 175. https://doi.org/10.2307/2746702.

[7] Pool, I. de S., & Abelson, R. (1961). The Simulmatics Project. The Public Opinion Quarterly, 25(2). https://doi.org/10.2307/2746702

[8] MсKelvey, F. (2020). The other Cambridge analytics: Early ‘artificial intelligence’ in American, 117. In Roberge, J., & Castelle, M. (ed.) The Cultural Life of Machine Learning. An Incursion into Critical Al Studies. (1st еd.) Palgrave Macmillan.

https://link.springer.com/chapter/10.1007/978-3-030-56286-1_4.

[9] MсKelvey, F. (2020). The other Cambridge analytics: Early ‘artificial intelligence’ in American, 117. In Roberge, J., & Castelle, M. (ed.) The Cultural Life of Machine Learning. An Incursion into Critical Al Studies. (1st еd.) Palgrave Macmillan.

https://link.springer.com/chapter/10.1007/978-3-030-56286-1_4. Retrieved on 10.01. 2024.

[10] Patel, S. (2018). What Can AI Teach Brands About Customer-Centric Marketing?. 18.05.2028. BlueStatehttps://www.bluestate.co/news/ai-customer-marketing/. Re­trieved on 10.04.2024

[11] Deutsch, K. (1963). The Nerves of Government: Models of Political Communication and Control with a New Introduction. Collier-Macmillan.

[12] Soto, C. J., & Jackson, J. J. (2020). Five-factor model of personality. In Dana S. Dunn (Ed.), Oxford Bibliographies in Psychology. New York, NY: Oxford, 1–28.

https://www.researchgate.net/profile/Christopher-Soto-5/publication/264476432_Five-Factor_Model_of_Personality/links/61b36fcc63bbd9324282f94e/Five-Factor-Model-of-Personality.pdf. Retrieved on 31.12.2023.

[12] Ackerman, С. (2017). Big Five Personality Traits: The OCEAN Model Explained.

https://positivepsychology.com/big-five-personality-theory/. Retrieved on 10.05.2024.

[13] Cable-Satellite Public Affairs Network. Cambridge Analytica and Data Privacy. Hearing before the U.S. Senate  Judiciary Committee on May 16th 2018 (C-SPAN 2018b: 01:24:07).

https://www.c-span.org/video/?445621-1/cambridge-analytica-data-privacy. Retrieved on 10.05.2024.

[14] US Intelligence Community Investigation. Intelligence Community Assessment (ICA 2017-01D). Report of 6 January 2017, Assessing Russian Activities and Intentions in Recent US Elections. https://www.dni.gov/files/documents/ICA_2017_01.pdf. Re­trieved on 31.12.2023.

[15] Anderson, B., & Horvath, Br. (2017). The Rise: of the Weaponized AI Propaganda Machine. Medium.com. Published on 13 Feb 2017. Viewed 1 June 2023. Available from: https://medium.com/join-scout/the-rise-of-the-weaponized-ai-propaganda-machine-86 dac61668b. Retrieved on 10.04.2024.

[16] Facebook Dark Posts – скрити, невидими съобщения; персонализирани рекламни съобщения, които могат да се видят само от конкретни потребители в социалните медии. Чрез микротаргетинг се сегментират конкретните аудитории, които полу­чават тези послания.

[17] Office of the Director of National Intelligence (ODNI), Background to Assessing Russian Activities and Intentions in Recent US Elections: The Analytic Process and Cyber Incident Attribution, iii, 6. https://www.dni.gov/files/documents/ICA_2017_ 01.pd. Published on 01.08.2017. Retrieved on 15.06.2023.

[18] Аро, Й. (2022). Троловете на Путин. Истински истории от фронтовете на рус­ката информационна война. София: Изд. Сиела, 415. [Аro, Y. (2022). Trolovete na Putin. Istinski istorii ot frontovete na ruskata informatsionna voyna. Sofia: Izd. Siela, 415.]

[19] Белтън, К. (2022). Хората на Путин. Как КГБ си върна Русия и след това се из­прави срещу Запада. София: Изд. Сиела, 502, 514, 520–523, 526, 548–572, 576. [Beltan, K. (2022). Horata na Putin. Kak KGB si varna Rusia i sled tova se izpravi sre­shtu Zapada. Sofia: Izd. Siela, 502, 514, 520–523, 526, 548–572, 576.]

[20] EUR-Lex. Access to European Union Law. Proposal for a Regulation of the Eropean Parliament and of the council laying down harmonized rules on artificial intelligence (Artificial intelligence act) and amending certain union legislative acts. Document 52021PC0206. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021 PC0206. Retrieved on 15.02.2024.

[21] EUR-Lex. Access to European Union Law. Regulation of the European parliament and of the Council on the transparency and targeting of political advertising. Document 52021PC0731. COM/2021/731 final. https://eur-lex.europa.eu/legal-content/EN/TXT/ ?uri=CELEX:52021PC0731. Retrieved on 26.01.2024.

[22] Connolly, K. (2024). Germany unearths pro-Russia disinformation campaign on X. The Guardian. https://www.theguardian.com/world/2024/jan/26/germany-unearths-pro-russia- disinformation-campaign-on-x. Retrieved on 15.02.2024.

[23] O’Carroll, L. (3 May 2024). Germany summons Russian envoy over 2023 cyber-attacks. The Guardian. https://www.theguardian.com/world/article/2024/may/03/ germany-says-russians-behind-intolerable-cyber-attack-last-year. Retrieved on 10.05. 2024.

Библиография

Аро, Й. (2022). Троловете на Путин. Истински истории от фронтовете на рус­ката информационна война. София: Изд. Сиела, 415. [Аro, Y. (2022). Trolovete na Putin. Istinski istorii ot frontovete na ruskata informatsionna voyna. Sofia: Izd. Siela, 415.]

Белтън, К. (2022). Хората на Путин. Как КГБ си върна Русия и след това се из­прави срещу Запада. София: Изд. Сиела, 502, 514, 520–523, 526, 548–572, 576. [Beltan, K. (2022). Horata na Putin. Kak KGB si varna Rusia i sled tova se izpravi sre­shtu Zapada. Sofia: Izd. Siela, 502, 514, 520–523, 526, 548–572, 576.]

Ackerman, С. (2017). Big Five Personality Traits: The OCEAN Model Explained.

https://positivepsychology.com/big-five-personality-theory/. Retrieved on 31.12.2023.

Anderson, B., & Horvath, Br. (2017). The Rise: of the Weaponized AI Propaganda Machine. Medium.com.

https://medium.com/join-scout/the-rise-of-the-weaponized-ai-propaganda-machine-86dac61668b. Retrieved on 01.06.2023.

Barelson, B., Lazarsfeld, P. & McPhee, W. (1954). Voting: A Study of Opinion Formation in a Presidential Campaign. (1st еd.) University of Chicago Press, 416.

Bean, L. (1948). How to Predict Elections. (1st еd.) A.A. Knopf., 196.

Cable-Satellite Public Affairs Network. Cambridge Analytica and Data Privacy. Hearing before the U.S. Senate  Judiciary Committee on May 16th 2018 (C-SPAN 2018b: 01:24:07).

https://www.c-span.org/video/?445621-1/cambridge-analytica-data-privacy. Retrieved on 10.02.2019.

Deutsch, K. (1963). The Nerves of Government: Models of Political Communication and Control with a New Introduction. (1st еd.) Collier-Macmillan, 316.

https://emeritus.org/blog/ai-and-ml-what-is-sentient-ai/л. Retrieved on 18.06.2023.

Connolly, K. (2024) Germany unearths pro-Russia disinformation campaign on X. The Guardian. https://www.theguardian.com/world/2024/jan/26/germany-unearths-pro-russia-disinformation-campaign-on-x. Retrieved on 15-02.2024.

EUR-Lex. Access to European Union Law. https://eur-lex.europa.eu/legal-content/EN/ TXT/?uri=celex%3A52021PC0206. Proposal for a Regulation of the European Parliament and of the council laying down harmonized rules on artificial intelligence (Artificial intelligence act) and amending certain union legislative acts. Document 52021PC0206. Retrieved on 15.02.2024.

EUR-Lex. Access to European Union Law. https://eur-lex.europa.eu/legal-content/EN/ TXT/?uri=CELEX:52021PC0731. Regulation of the European parliament and of the Council on the transparency and targeting of political advertising. Document 52021PC0731. COM/2021/731 final. Retrieved on 26.01.2024.

Lepore, J. (2018). These truths: A history of the United States. (1st еd.) W. W. Norton & Company, 960.

MсKelvey, F. (2020). The other Cambridge analytics: Early ‘artificial intelligence’ in American, 117–142. In Roberge, J., & Castelle, M. (ed.) The Cultural Life of Machine Learning. An Incursion into Critical Al Studies. (1st еd.) Palgrave Macmillan, 304.

https://link.springer.com/chapter/10.1007/978-3-030-56286-1_4. Retrieved on 01.06. 2023.

O’Carroll, L. (3 May 2024). Germany summons Russian envoy over 2023 cyber-attacks. The Guardian.

https://www.theguardian.com/world/article/2024/may/03/germany-says-russians-behind-intolerable-cyber-attack-last-year. Retrieved on 01.06.2023.

Office of the Director of National Intelligence (ODNI). Background to Assessing Russian Activities and Intentions in Recent US Elections: The Analytic Process and Cyber Incident Attribution. https://www.dni.gov/files/documents/ICA_2017_01.pd. 01.08. 2017. Retrieved on 15.06.2023.

Patel, S. (2018). What Can AI Teach Brands About Customer-Centric Marketing?. 18.05.2028. BlueStatehttps://www.bluestate.co/news/ai-customer-marketing/. Re­trieved on 10.04.2024

Pool, I. de S., & Abelson, R. (1961). The Simulmatics Project. The Public Opinion Quar­terly, 25(2), 167–183.

https://doi.org/10.2307/2746702. Retrieved on 01.06.2023.

Soto, C. J., & Jackson, J. J. (2020). Five-factor model of personality. In Dana S. Dunn (Ed.), Oxford Bibliographies in Psychology. New York, NY: Oxford, 28.

https://www.researchgate.net/profile/Christopher-Soto-5/publication/264476432_ Five-Factor_Model_of_Personality/links/61b36fcc63bbd9324282f94e/Five-Factor-Model-of-Personality.pdf. Retrieved on 31.12.2023.

US Intelligence Community Investigation.  https://www.dni.gov/files/documents/ICA_2017_01.pdf.  Retrieved on 31.12.2023. Intelligence Community Assessment (ICA 2017-01D).  Report of 6 January 2017, Assessing Russian Activities and Intentions in Recent US Elections, 25

White, H. B. (1961). The Processed Voter and the New Political Science. Social Research, 28(2), 127–150.

https://www.jstor.org/stable/40969367. Retrieved on 01.06.2023.

 

Борислав Виларов е магистър по „история и география“ и „политология“. Управител е на „ПроИмидж и Комуникация“ ЕООД. В момента подготвя свободна докторантура в СУ „Св. Кл. Охридски“, Философски факултет, Катедра „Поли­тология“ на тема „Имидж, бранд и репутация на българския Президент (1991 – 2017 г.)“. Научните му интереси са в сферата на политически маркетинг, полити­чески имидж и бранд, политически и интернет комуникации. В продължение на 10 години е преподавал „Политически комуникации“ в СУ „Св. Кл. Охридски“ и  НБУ – София. Автор е на редица научни статии в посочените области. Има богат прак­тически опит като консултант в предизборни кампании.

 

Ръкописът е изпратен на 09.05.2024 г.

Рецензиране от двама независими рецензенти: от 10.05.2024 до 10.06.2024 г.

Приемане за публикуване: 11.06.2024 г.

Manuscript was submitted: 09.05.2024.

Double Blind Peer Reviews: from 10.05.2024 till 10.06.2024.

Accepted: 11.06.2024.

Брой 60 на сп. „Реторика и комуникации“ (юли 2024 г.) се издава с финансовата помощ на Фонд научни изследвания, договор № КП-06-НП5/65 от 08 декември 2023 г.

Issue 60 of the Rhetoric and Communications Journal (July 2024) is published with the financial support of the Scientific Research Fund, Contract No. KP-06-NP5/65 of December 08,