Политическа комуникация и дигитализация
Political Communication and Digitalisation
DOI 10.55026/CWZO6130
Борислав Виларов
Софийски университет „Св. Климент Охридски“
Управител на „ПроИмидж и Комуникация“ ЕООД
Имейл: vilarowbg62@gmail.com
Абстракт: В статията е изследван проблемът за използване на алгоритми и информационни технологии в политиката и предизборните кампании от 40-те години на 20. век. За пръв път е въведено понятието „политически кибермаркетинг“ и е дадено определение. Темата е значима от гледна точка на влиянието на информационните технологии и изкуствения интелект (ИИ) във всяка една сфера на човешка дейност. Скандалите около въздействието на компютърната пропаганда и насочването на реклами и послания чрез микротаргетинг по време на Брекзит, и президентските избори в САЩ през 2016 г., и хибридната война, която водят авторитарни режими срещу демократичните общества поставят както етични въпроси относно границите на влияние на изкуствения интелект, така и необходимостта от регулация, контрол и образование на гражданите, относно възможностите на новите технологии да влияят върху техния избор в демократичния процес и обществения дебат по актуални теми. През 20-те години на 21. век САЩ, Великобритания, ЕС, Китай и други държави въвеждат регулации за използване на изкуствен интелект с цел намаляване на потенциалните рискове и стимулиране на развитието му.
Ключови думи: алгоритми, информационни технологии, политически кибермаркетинг, микротаргетинг, конструиране на общественото мнение, компютърна пропаганда.
Political Cybermarketing – Ways to Use It
Borislav Vilarov
Sofia University “St. Uliment Ohridski”
Manager of ProImage and Communication, Ltd
E-mail: vilarowbg62@gmail.com
Abstract: The article examines the problem of using algorithms and information technologies in politics and election campaigns since the 1940s. The term “political cyber marketing” is introduced and defined for the first time. The topic is significant in view of the influence of information technology and artificial intelligence (AI) in every sphere of human activity. The scandals surrounding the impact of computer propaganda and microtargeting of advertisements and messages during Brexit campaign and the 2016 US presidential election in addition to the hybrid warfare that authoritarian regimes are waging against democratic societies raise both ethical questions about the limits of artificial intelligence influence and the need for regulation, control and education of citizens about how new technologies influence their choices in the democratic process and the public debate on current topics. In the 2020s, the USA, the UK, the EU, China and other countries introduce regulations on the use of artificial intelligence in order to reduce potential risks and stimulate its development.
Keywords: algorithms, information technology, political cyber marketing, microtargeting, social construction of public opinion, computer propaganda.
Въведение
В научната литература за пръв път се използва терминът политически кибермаркетинг. Той все още не е формализиран и изучен като област на знанието. Изследването представя научните дирения в използването на цифрови алгоритми, компютърни технологии и пропаганда, ИИ и социалните медии в политическата практика. Изследването цели да се верифицира хипотеза на автора относно регулацията и/или повишаване на образованието на гражданите, като отговор на конструирането на общественото мнение, чрез новите цифрови технологии.
Генезиса на понятието политически маркетинг е пряко свързано с понятия като власт, демокрация и обществено мнение. От най-древни времена елитите са търсили механизми за въздействие върху общественото мнение. Днес политиците се стремят към конструиране на общественото мнение чрез развитието на дигиталните комуникации, разбирането за виртуален гражданин и мрежовото общуване.
Изследването на механизмите за въздействие на политическия кибермаркетинг, конструирането на обществено мнение и изграждане на доверие е в основата на хипотезата на настоящето изследване. Дигиталните технологии могат да манипулират общественото мнение чрез създаване на виртуални илюзии. Затова е необходимо известна регулация, но тя сама по себе си не може да реши проблемите. Освен регулация е необходимо и образование на гражданите.
Изследването е базирано на проучване на практиката при използването на кибертехнологии в процеса на политическо общуване. Разглеждат се различни казуси при изследване и конструиране на общественото мнение чрез кибертехнологии, ИИ и социалните медии. Все по-отчетливо се наблюдава тенденция на създаване на ехо камери, фалшиви новини, псевдосъбития и дийпфейк [1], която води до дефицит на справедливост, когнитивен дисонанс и липса на доверие между управлявани и управляващи.
Новите технологии създават позитивни условия за развитие на науката и решаване на редица проблеми, но крият и много рискове. Тук е мястото на специалистите по политически маркетинг и комуникации да предупредят обществото за рисковете, да възпитат и образоват гражданите, да консултират политиците и да изградят доверие между управляващи и управлявани.
Основната хипотеза е, че само чрез регулация на виртуалното пространство не могат да се минимизират рисковете пред съвременните демократични общества. Затова е необходимо успоредно с регулацията да се възпитават и образоват съвременните поколения, за да бъдат устойчиви към фалшивите новини и манипулации чрез ИИ.
На границата на „Новата политическа наука“ [2]
До 1948 г. политическите предизборни прогнози се правят чрез демоскопски проучвания. За пръв път през 1948 г. се прогнозира победата на президента Х. Труман с демографски и статистически данни, за да се измерят политическите вълни. [3] Проучвания показват, че съществуват фактори (социална класа, религиозен произход, семейна лоялност, взаимоотношения на работното място, местни групи за натиск, средства за масова комуникация и др.), които влияят на поведението на избирателите. [4] През 1952 г. Remington Rand прави точна компютърна прогноза за съкрушителната победа на ген. Д. Айзенхауер. [5]
В края на 50-те години на 20. в., учени от Масачузетския технологичен институт (МТИ) предлагат нов подход за симулация на общественото мнение. Проект Macroscope е подкрепен от Демократическата партия. Чрез анализ на „избирателните вълни“, компютърно прогнозиране и постиженията на бехейвиоризма, учените разработват модел за търсене на неуловим избирател, който може да промени поведението си в резултат на кръстосан натиск. [6]
През 1959 г. Simulmatics създава база данни с политически нагласи, за прогнозиране на промени в гласуването чрез корелация между проблеми и социални променливи. През 1960 г. екипът на Дж. Кенеди поръчва на Simulmatics доклади за образите на Кенеди и Никсън, и външната политика като въпрос на кампанията. Експертите използват поведенческата теория за кръстосан натиск и цифрови модели на базата на човешкото поведение, ценности и нагласи. Резултатите са изчислени чрез компютърни алгоритми. [7]
Според Харолд Ласуел, Проектът Macroscope на Simulmatics Corporation за компютърно моделиране и прогнозиране на обществените нагласи, представлява атомната бомба на социалните науки. Според него за пръв път е използван ИИ в широк смисъл. [8]
Проектът Macroscope на МТИ е последван от други проекти, свързани с развитието на политологията, кибер науката, психографията и развитието на ИИ: проект Cambridge (интегриране на бихейвиоризма и кибер науката в политиката и управлението) [9], Tanjo’s Animated Personas (TAPs) на Blue State Digital (скриване на индивида чрез моделиране на аномирани персонажи), позволява нов подход за изследване и тестване на аудиторията [10] и др. При разработването на компютърни модели в политиката е използвана теорията на Карл Дойч за нервите на правителството, концепциите за обратна връзка, капацитет на комуникационните канали, паметта, съзнанието, волята и социалното обучение. [11]
Петфакторен модел на личността (FFM)
През 60-те години на 20. в. Ърнест Тюпс и Реймънд Кристал разработват петфакторен модел на личността (FFMР), известен още като моделът OCEAN. Моделът е усъвършенстван от Джон Дигман и Люис Голдбърг през 90-те години на 20. в. Той е разработен на базата на начина на мислене, чувствата и поведението на индивидите, които са относително трайни през целия живот. Моделът OCEAN [12], [13] разкрива семантични асоциации, думи (вербални дескриптори), използвани за описване на отделни аспекти на личността. Всеки основен фактор е свързан с първични фактори, личностни черти, които са групирани чрез факторен анализ, въпросници за самооценка и оценки на връстници. Основните фактори са обединени в личностни черти:
- О (Openness – Openness to experience) – отвореност към опита (изобретателност, любопитство);
- C (Conscientiousness) – добросъвестност (съзнателност, ефективност, организираност);
- E (Extroversion) – екстровертност (комуникативност, енергичност, динамични социални контакти);
- A (Agreeableness) – дружелюбност (изобретателен, приятелски насочен към другите);
- N (Neuroticism) – невротизъм (емоционална стабилност, чувствителен, издръжлив).
Нов етап в развитието на политическия маркетинг
Съвременната практика на провеждане на предизборни и публични кампании чрез цифрови технологии и социални медии, създават нова дигитална реалност, която можем да определим като нов период на развитие на политическия маркетинг – етап на политически кибермаркетинг. Политическият кибермаркетинг е съвременен политически маркетинг базиран на кибералгоритми, психография, микротаргетиране, анализ на големи бази данни и насочване на персонални реклами чрез социалните медии и цифрови технологии на базата на ИИ. Микротаргетирането дава възможност за идентифициране и изучаване на конкретни отделни личности и малки социални групи. Чрез анализ на големи бази данни извлечени от социалните медии и потребителски цифрови платформи, посредством ИИ се прави анализ на психологическите нагласи на малки социални групи, които са бомбардирани с персонални реклами, които често са неуловими и не може да им се противодейства. В резултат се променя поведението на гражданите и избирателите (конструиране на обществено мнение), често в последния момент преди избори. Кристализацията на общественото мнение в последния момент преди вот, затруднява специалистите и политиците правилно да предвидят поведението на избирателите.
Политическият кибермаркетинг започва да се налага през последните двадесет години чрез закупуване на големи данни с нагласите на избирателите (за кого са склонни да гласуват, какво харесват, от какво се интересуват) и насочването към тях на реклами и статии чрез социалните медии. [14] Този киберполитически маркетинг става публичен след 2016 г. във връзка със скандала „Cambridge Analytica – Facebook“, кампанията на сенатора от Републиканската партия Тед Круз през 2016 г. за първични президентски избори, президентската кампания на Доналд Тръмп (2015–2016 г.) и Референдумите Брекзит (2016 г.) и за независимост на Каталуния (2017 г.).
Анализите на скандалите с въздействието върху избирателите по време на президентската кампания на Д. Тръмп в САЩ и Референдумът за Брекзит във Великобритания, дават основание на специалисти по компютърна пропаганда да констатират, че не става дума просто за социално инженерство, а за „… въоръжена машина за пропаганда на ИИ …“, „… използвана за манипулиране на нашите мнения и поведение за прокарване на конкретни политически програми …“. [15] Според редица изследователи Cambridge Analytica е използвала автоматизирана емоционална манипулация, микротаргетиране, A/B тестове, пропагандни медии и сайтове, тъмни публикации във Facebook [16], ботове, тролове в Twitter, Facebook, YouTube и мрежи за фалшиви новини, за да се активира невидима машина, която преследва конкретни личности, за да създаде големи промени в общественото мнение.
Много от тези технологии са били използвани поотделно и по-рано, но заедно те представляват тайна машина за манипулиране на гражданите, при реализиране на публични кампании и изграждане на доверие между управлявани и управляващи или сриването му.
Опитът за конструиране на обществено мнение, дестабилизиране и повлияване на различни демократични процедури, има дълга предистория от времената на Студената война. За целта се използват психологически операции за конструиране на обществено мнение в комбинация с модерни кибертехнологии и от двете страни на „желязната завеса“. Тези опити никога не са спирали, но стават особено интензивни след 2008 г., и са част от хибридната война, която Русия и други авторитарни държави водят срещу демократичния свят. В доклад на американските служби е посочено, че се очаква руските служби в бъдеще да използват кибертехники за влияние по целия свят. [17] Специалните служби и мрежи от тролове, които седят зад тази кибервойна, се опитват да подкопаят доверието между управляващи и управлявани, да насърчат радикалното недоволство и конфликти в отделните общества, да очернят и тормозят отделни личности, внушават и разпространяват конспиративни теории, разпалват омраза срещу чужденци и се стремят да разрушат либерално-демократичните държави. [18]
Руската стратегия комбинира:
- тайни пропагандни кибероперации;
- явни усилия на руски правителствени агенции и държавни медии;
- посредници от трети страни;
- платени потребители на социални медии (тролове, ботове, тъмни мрежи);
- реклама и микротаргетиране в социалните медии, контролирани от западни мегакомпании (Facebook, Twitter, YouTube и Google);
- създаване на мрежа за финансиране и влияние;
- корумпиране на влиятелни политици, висши държавници служители и бизнесмени. [19]
През 2017 г. се появява Големият езиков модел (LLM), който използва изкуствена невронна мрежа. LLM представлява концепцията за езиков модел в ИИ, която е доразвита със създаването на генеративен ИИ – чатбот (chatbot), който представлява алгоритъм с ИИ. Чатботовете имитират човешки събеседник, комуникират с хора, и изпращат съобщения чрез дигитални платформи. Езиковият модел ChatGPT версия 4 (март 2023 г.) на Open AL може да пише текстове по зададени теми, да композира музика и да генерира изображения. В началото на 2024 г. стартира BgGPT на INSAIT – първият модел на ИИ за български език. Новите версии на ChatGPT могат да генерират потоци от фалшиви новини и да манипулират общественото мнение, което застрашава основите на демократичните общества.
Очаква се ИИ да стане разумен, чувствителен (Sentient AI), да има собствена воля и да започне да взима самостоятелни решения. Разликата между генеративен и разумен интелект е разлика между съвместим с човека ИИ и разумен ИИ. Чувственият ИИ ще създаде изцяло нов свят и възможности за технологична революция.
Регулация на ИИ и политическата реклама в социалните медии
В периода 2017 – 2023 г. редица държави приемат регулации за стимулиране развитието на ИИ и гаранции за ограничаване на възможностите за дезинформация и манипулация. През 2023 г. китайското правителство приема план, чиято цел е до 2030 г. Китай да стане глобален лидер в развитието на ИИ. На 30 октомври 2023 г. президента на САЩ публикува указ за регулиране използването на ИИ. През 2023 г. Великобритания въвеждат седем ключови принципа за регулация на ИИ. В края на 2023 и началото на 2024 г. ЕС приема Законодателен акт за изкуствения интелект (ЗАИИ) и Регламент за прозрачност и насочването (усилване) на политическата реклама. ЗАИИ предвижда стандарт за класифициране и управление на риска, прозрачност и отчетност на ИИ и компаниите, които го разработват. [20], [21]
Заключение
Все по често ИИ се използва за манипулиране и разпространяване на фалшиви новини по време на референдуми, предизборни и публични кампании в цял свят. Първото опитно поле на ИИ в предизборни кампании бе на президентските изборите в Аржентина през 2023 г. ИИ се използва в предизборните кампании за дезинформация, анализ на данни, писане на имейли за набиране на средства, персонални съобщения и реклами, писане на речи и др. Проучвания в САЩ показват, че над 50% от американците очакват генерираните от ИИ неистини да окажат влияние върху президентските избори през 2024 г., поради което една трета от американските избиратели заявяват, че нямат доверие на изборните резултати. Това недоверие подклажда чувства на гняв от демократичния изборен процес сред обществеността.
Въпреки предприетите мерки за регулация на използването на ИИ и онлайн политическата реклама, практиката показва, че компютърната пропаганда е трудно уловима. В края на 2023 г. в Германия бе установено, че Русия манипулира германското общество и го настройва срещу Украйна – за месец са публикувани над 1 милион съобщения в социалната мрежа X (Туитър) на Илон Мъск, чрез 50 000 фалшиви акаунти. [22] Целта е да се намали подкрепата за украинците, създаване на недоверие към германските политици и подкрепа на немската крайната десница, която симпатизира на режима на Вл. Путин. Според германското разузнаване кибератаката е дело хакерската група APT28 (Fancy Bear/ Pawn Storm), която е свързана с ГРУ. [23]
Този пример поставя въпроса, доколко регулацията може да бъде ефективна преграда пред компютърната пропаганда, дезинформация и манипулации. Ето защо, паралелно на мерките за регулация е необходим сериозен мониторинг на подобни кампании и образование и ограмотяване на гражданите, за да разпознават и по-трудно да се поддават на подобни манипулации.
Цитати и бележки
[1] Дийпфейк (Deepfake – англ. ез.) – медии и медийни продукти, произведени от генериращ ИИ. Технологии, с които се създават реалистично изглеждащи фалшиви клипове с лицата на истински хора.
[2] White, H. B. (1961). The Processed Voter and the New Political Science. Social Research, 28(2), 127–150. https://www.jstor.org/stable/40969367. Retrieved on 10.01. 2024.
[3] Bean, L. (1948). How to Predict Elections. (1st еd.) A.A. Knopf., 12.
[4] Barelson, B., Lazarsfeld, P., & McPhee, W. (1954). Voting: A Study of Opinion Formation in a Presidential Campaign. (1st еd.) University of Chicago Press.
[5] Lepore, J. (2018). These truths: A history of the United States. (1st еd.) W. W. Norton & Company, 559.
[6] Pool, I. de S., & Abelson, R. (1961). The Simulmatics Project. The Public Opinion Quarterly, 25(2), 175. https://doi.org/10.2307/2746702.
[7] Pool, I. de S., & Abelson, R. (1961). The Simulmatics Project. The Public Opinion Quarterly, 25(2). https://doi.org/10.2307/2746702
[8] MсKelvey, F. (2020). The other Cambridge analytics: Early ‘artificial intelligence’ in American, 117. In Roberge, J., & Castelle, M. (ed.) The Cultural Life of Machine Learning. An Incursion into Critical Al Studies. (1st еd.) Palgrave Macmillan.
https://link.springer.com/chapter/10.1007/978-3-030-56286-1_4.
[9] MсKelvey, F. (2020). The other Cambridge analytics: Early ‘artificial intelligence’ in American, 117. In Roberge, J., & Castelle, M. (ed.) The Cultural Life of Machine Learning. An Incursion into Critical Al Studies. (1st еd.) Palgrave Macmillan.
https://link.springer.com/chapter/10.1007/978-3-030-56286-1_4. Retrieved on 10.01. 2024.
[10] Patel, S. (2018). What Can AI Teach Brands About Customer-Centric Marketing?. 18.05.2028. BlueState. https://www.bluestate.co/news/ai-customer-marketing/. Retrieved on 10.04.2024
[11] Deutsch, K. (1963). The Nerves of Government: Models of Political Communication and Control with a New Introduction. Collier-Macmillan.
[12] Soto, C. J., & Jackson, J. J. (2020). Five-factor model of personality. In Dana S. Dunn (Ed.), Oxford Bibliographies in Psychology. New York, NY: Oxford, 1–28.
https://www.researchgate.net/profile/Christopher-Soto-5/publication/264476432_Five-Factor_Model_of_Personality/links/61b36fcc63bbd9324282f94e/Five-Factor-Model-of-Personality.pdf. Retrieved on 31.12.2023.
[12] Ackerman, С. (2017). Big Five Personality Traits: The OCEAN Model Explained.
https://positivepsychology.com/big-five-personality-theory/. Retrieved on 10.05.2024.
[13] Cable-Satellite Public Affairs Network. Cambridge Analytica and Data Privacy. Hearing before the U.S. Senate Judiciary Committee on May 16th 2018 (C-SPAN 2018b: 01:24:07).
https://www.c-span.org/video/?445621-1/cambridge-analytica-data-privacy. Retrieved on 10.05.2024.
[14] US Intelligence Community Investigation. Intelligence Community Assessment (ICA 2017-01D). Report of 6 January 2017, Assessing Russian Activities and Intentions in Recent US Elections. https://www.dni.gov/files/documents/ICA_2017_01.pdf. Retrieved on 31.12.2023.
[15] Anderson, B., & Horvath, Br. (2017). The Rise: of the Weaponized AI Propaganda Machine. Medium.com. Published on 13 Feb 2017. Viewed 1 June 2023. Available from: https://medium.com/join-scout/the-rise-of-the-weaponized-ai-propaganda-machine-86 dac61668b. Retrieved on 10.04.2024.
[16] Facebook Dark Posts – скрити, невидими съобщения; персонализирани рекламни съобщения, които могат да се видят само от конкретни потребители в социалните медии. Чрез микротаргетинг се сегментират конкретните аудитории, които получават тези послания.
[17] Office of the Director of National Intelligence (ODNI), Background to Assessing Russian Activities and Intentions in Recent US Elections: The Analytic Process and Cyber Incident Attribution, iii, 6. https://www.dni.gov/files/documents/ICA_2017_ 01.pd. Published on 01.08.2017. Retrieved on 15.06.2023.
[18] Аро, Й. (2022). Троловете на Путин. Истински истории от фронтовете на руската информационна война. София: Изд. Сиела, 415. [Аro, Y. (2022). Trolovete na Putin. Istinski istorii ot frontovete na ruskata informatsionna voyna. Sofia: Izd. Siela, 415.]
[19] Белтън, К. (2022). Хората на Путин. Как КГБ си върна Русия и след това се изправи срещу Запада. София: Изд. Сиела, 502, 514, 520–523, 526, 548–572, 576. [Beltan, K. (2022). Horata na Putin. Kak KGB si varna Rusia i sled tova se izpravi sreshtu Zapada. Sofia: Izd. Siela, 502, 514, 520–523, 526, 548–572, 576.]
[20] EUR-Lex. Access to European Union Law. Proposal for a Regulation of the Eropean Parliament and of the council laying down harmonized rules on artificial intelligence (Artificial intelligence act) and amending certain union legislative acts. Document 52021PC0206. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021 PC0206. Retrieved on 15.02.2024.
[21] EUR-Lex. Access to European Union Law. Regulation of the European parliament and of the Council on the transparency and targeting of political advertising. Document 52021PC0731. COM/2021/731 final. https://eur-lex.europa.eu/legal-content/EN/TXT/ ?uri=CELEX:52021PC0731. Retrieved on 26.01.2024.
[22] Connolly, K. (2024). Germany unearths pro-Russia disinformation campaign on X. The Guardian. https://www.theguardian.com/world/2024/jan/26/germany-unearths-pro-russia- disinformation-campaign-on-x. Retrieved on 15.02.2024.
[23] O’Carroll, L. (3 May 2024). Germany summons Russian envoy over 2023 cyber-attacks. The Guardian. https://www.theguardian.com/world/article/2024/may/03/ germany-says-russians-behind-intolerable-cyber-attack-last-year. Retrieved on 10.05. 2024.
Библиография
Аро, Й. (2022). Троловете на Путин. Истински истории от фронтовете на руската информационна война. София: Изд. Сиела, 415. [Аro, Y. (2022). Trolovete na Putin. Istinski istorii ot frontovete na ruskata informatsionna voyna. Sofia: Izd. Siela, 415.]
Белтън, К. (2022). Хората на Путин. Как КГБ си върна Русия и след това се изправи срещу Запада. София: Изд. Сиела, 502, 514, 520–523, 526, 548–572, 576. [Beltan, K. (2022). Horata na Putin. Kak KGB si varna Rusia i sled tova se izpravi sreshtu Zapada. Sofia: Izd. Siela, 502, 514, 520–523, 526, 548–572, 576.]
Ackerman, С. (2017). Big Five Personality Traits: The OCEAN Model Explained.
https://positivepsychology.com/big-five-personality-theory/. Retrieved on 31.12.2023.
Anderson, B., & Horvath, Br. (2017). The Rise: of the Weaponized AI Propaganda Machine. Medium.com.
https://medium.com/join-scout/the-rise-of-the-weaponized-ai-propaganda-machine-86dac61668b. Retrieved on 01.06.2023.
Barelson, B., Lazarsfeld, P. & McPhee, W. (1954). Voting: A Study of Opinion Formation in a Presidential Campaign. (1st еd.) University of Chicago Press, 416.
Bean, L. (1948). How to Predict Elections. (1st еd.) A.A. Knopf., 196.
Cable-Satellite Public Affairs Network. Cambridge Analytica and Data Privacy. Hearing before the U.S. Senate Judiciary Committee on May 16th 2018 (C-SPAN 2018b: 01:24:07).
https://www.c-span.org/video/?445621-1/cambridge-analytica-data-privacy. Retrieved on 10.02.2019.
Deutsch, K. (1963). The Nerves of Government: Models of Political Communication and Control with a New Introduction. (1st еd.) Collier-Macmillan, 316.
https://emeritus.org/blog/ai-and-ml-what-is-sentient-ai/л. Retrieved on 18.06.2023.
Connolly, K. (2024) Germany unearths pro-Russia disinformation campaign on X. The Guardian. https://www.theguardian.com/world/2024/jan/26/germany-unearths-pro-russia-disinformation-campaign-on-x. Retrieved on 15-02.2024.
EUR-Lex. Access to European Union Law. https://eur-lex.europa.eu/legal-content/EN/ TXT/?uri=celex%3A52021PC0206. Proposal for a Regulation of the European Parliament and of the council laying down harmonized rules on artificial intelligence (Artificial intelligence act) and amending certain union legislative acts. Document 52021PC0206. Retrieved on 15.02.2024.
EUR-Lex. Access to European Union Law. https://eur-lex.europa.eu/legal-content/EN/ TXT/?uri=CELEX:52021PC0731. Regulation of the European parliament and of the Council on the transparency and targeting of political advertising. Document 52021PC0731. COM/2021/731 final. Retrieved on 26.01.2024.
Lepore, J. (2018). These truths: A history of the United States. (1st еd.) W. W. Norton & Company, 960.
MсKelvey, F. (2020). The other Cambridge analytics: Early ‘artificial intelligence’ in American, 117–142. In Roberge, J., & Castelle, M. (ed.) The Cultural Life of Machine Learning. An Incursion into Critical Al Studies. (1st еd.) Palgrave Macmillan, 304.
https://link.springer.com/chapter/10.1007/978-3-030-56286-1_4. Retrieved on 01.06. 2023.
O’Carroll, L. (3 May 2024). Germany summons Russian envoy over 2023 cyber-attacks. The Guardian.
https://www.theguardian.com/world/article/2024/may/03/germany-says-russians-behind-intolerable-cyber-attack-last-year. Retrieved on 01.06.2023.
Office of the Director of National Intelligence (ODNI). Background to Assessing Russian Activities and Intentions in Recent US Elections: The Analytic Process and Cyber Incident Attribution. https://www.dni.gov/files/documents/ICA_2017_01.pd. 01.08. 2017. Retrieved on 15.06.2023.
Patel, S. (2018). What Can AI Teach Brands About Customer-Centric Marketing?. 18.05.2028. BlueState. https://www.bluestate.co/news/ai-customer-marketing/. Retrieved on 10.04.2024
Pool, I. de S., & Abelson, R. (1961). The Simulmatics Project. The Public Opinion Quarterly, 25(2), 167–183.
https://doi.org/10.2307/2746702. Retrieved on 01.06.2023.
Soto, C. J., & Jackson, J. J. (2020). Five-factor model of personality. In Dana S. Dunn (Ed.), Oxford Bibliographies in Psychology. New York, NY: Oxford, 28.
https://www.researchgate.net/profile/Christopher-Soto-5/publication/264476432_ Five-Factor_Model_of_Personality/links/61b36fcc63bbd9324282f94e/Five-Factor-Model-of-Personality.pdf. Retrieved on 31.12.2023.
US Intelligence Community Investigation. https://www.dni.gov/files/documents/ICA_2017_01.pdf. Retrieved on 31.12.2023. Intelligence Community Assessment (ICA 2017-01D). Report of 6 January 2017, Assessing Russian Activities and Intentions in Recent US Elections, 25
White, H. B. (1961). The Processed Voter and the New Political Science. Social Research, 28(2), 127–150.
https://www.jstor.org/stable/40969367. Retrieved on 01.06.2023.
Борислав Виларов е магистър по „история и география“ и „политология“. Управител е на „ПроИмидж и Комуникация“ ЕООД. В момента подготвя свободна докторантура в СУ „Св. Кл. Охридски“, Философски факултет, Катедра „Политология“ на тема „Имидж, бранд и репутация на българския Президент (1991 – 2017 г.)“. Научните му интереси са в сферата на политически маркетинг, политически имидж и бранд, политически и интернет комуникации. В продължение на 10 години е преподавал „Политически комуникации“ в СУ „Св. Кл. Охридски“ и НБУ – София. Автор е на редица научни статии в посочените области. Има богат практически опит като консултант в предизборни кампании.
Ръкописът е изпратен на 09.05.2024 г.
Рецензиране от двама независими рецензенти: от 10.05.2024 до 10.06.2024 г.
Приемане за публикуване: 11.06.2024 г.
Manuscript was submitted: 09.05.2024.
Double Blind Peer Reviews: from 10.05.2024 till 10.06.2024.
Accepted: 11.06.2024.
Брой 60 на сп. „Реторика и комуникации“ (юли 2024 г.) се издава с финансовата помощ на Фонд научни изследвания, договор № КП-06-НП5/65 от 08 декември 2023 г.
Issue 60 of the Rhetoric and Communications Journal (July 2024) is published with the financial support of the Scientific Research Fund, Contract No. KP-06-NP5/65 of December 08,