Политическа комуникация и дигитализация
Political Communication and Digitalisation
DOI 10.55026/LIZI1604
Мария Илиева
Нов български университет
Имейл: mariya.ilieva89@gmail.com
Абстракт: В статията се представят резултати от анализ на етичните принципи, произтичащи от хармонизирането на Европейските политики и регулации в Европейския съюз (ЕС). Целта е да се направи анализ на системите за изкуствен интелект в ЕС през различни призми и чрез различни законодателни и незаконодателни инициативи (Регламенти, Директиви и Насоки и др.) на Европейския съюз. Използвани са методите на критичния анализ, кабинетното изследване и дискурсивния анализ на правни и нормативни документи. Направен е преглед на някои етични и комуникационни аспекти на изкуствения интелект. Изведена е информация относно необходимостта от създаване и навлизане на изкуствения интелект в различни сектори, направени са изводи относно стойността и значението му и защо той трябва да бъде регулиран. Изводите са в няколко посоки. Първо, данните, събирани постоянно за потребителите от социални медии, сайтове и платформи в интернет, съдържат информация от личен и професионален характер. Второ, отговорността на системите и технологиите, базирани на изкуствен интелект, е съществен аспект, който се изучава, включително въпросите за отговорност при причинените вреди, несъответствия, устойчивост и сигурност на системите, дискриминация и др. Трето, нараства значимостта на изучаването на етичните аспекти относно прилагането и употребата на системи и технологии на изкуствен интелект, като в проучванията от научна и правна гледна точка се акцентира върху съвместимостта с основните ценности на обществото и спазването на правата на човека и комуникацията човек – изкуствен интелект.
Ключови думи: изкуствен интелект, европейска регулация, етика, етични принципи в изкуствения интелект.
Artificial Intelligence: Legal Regulation, Liability, Communication and Ethical Aspects
Mariya Ilieva
New Bulgarian University,
E-mail: mariya.ilieva89@gmail.com
Аbstract: The paper presents the results of an analysis of ethical principles arising from the harmonization of European policies and regulations in the European Union (EU). The aim is to analyze AI systems in the EU through different prisms and through different legislative and non-legislative initiatives (Regulations, Directives and Guidelines, etc.) of the European Union. The methods of critical analysis, desk research and discursive analysis of legal and regulatory documents are used. Some ethical and communication aspects of artificial intelligence are reviewed. Information on the need for the creation and penetration of artificial intelligence in various sectors is highlighted, conclusions are drawn on its value and importance and why it should be regulated. The conclusions are in several directions. Firstly, the data constantly collected about users from social media, websites and platforms on the internet contains information of a personal and professional nature. Second, the liability of systems and technologies based on artificial intelligence is an essential aspect that is being studied, including issues of liability for harm caused, non-compliance, sustainability and security of systems, discrimination, etc. Third, the study of ethical aspects regarding the application and use of AI systems and technologies is growing in importance, with scientific and legal research focusing on compatibility with the fundamental values of society and respect for human rights and human-artificial intelligence communication.
Keywords: artificial intelligence, European regulation, Ethics, Ethical principles in Artificial intelligence.
Увод
Във века на бързо развиващите се технологии темата за изкуствения интелект (ИИ) (Artificial Intelligence (AI)) изпъква като една от най-важните и вълнуващи, оказваща все по-категорично влияние върху всички икономически сфери. Неговите възможности за промени са безгранични, но с тях съществуват и сериозни етични предизвикателства. Дискурсът за етичните аспекти на изкуствения интелект (ИИ) обхваща широк спектър от въпроси, свързани с правните и морални аспекти на развитието, прилагането и регулирането му. Въведението на изкуствения интелект в различни сектори на обществените услуги предлага безпрецедентни възможности за подобряване на ефективността, прецизността и иновациите, но въпреки това създаването и навлизането на AI в ежедневието носи със себе си предизвикателства, касаещи правната регулация и отговорността на решенията взети в резултат на използването и приложението на изкуствен интелект. Същността и целта му е да подпомага и автоматизира вземането на решения и процесите, но това също така поражда въпроси относно неговата прозрачност, справедливост, безопасност и отговорност.
Създаването на ефективни правни рамки и етични принципи за управление на изкуствения интелект е от съществено значение за гарантиране на отговорното му използване. Това включва разработването на насоки и стандарти за защита на данните, личната неприкосновеност, недопускане на дискриминацията и прозрачност. Отговорността на изкуствения интелект и неговите създатели представлява гаранция, че технологията се разработва и използва по начин, който защитава и уважава човешките права и свободи. С развитието на изкуствения интелект ние навлизаме в ера, в която е невъзможно единствено да бъде направен анализ и преглед на проблематиката, отнасяща се до етичните принципи в изкуствения интелект. Направено е допускането, че фокус следва да бъде даден и на правната регламентация на същия. С оглед на тези динамични процеси се поставят под въпрос традиционните понятия за контрол, надзор и отговорност, изисквайки от нас да преосмислим и адаптираме нашите правни и етични рамки, за да отразим новите технологични реалности. Така, както метафорично наричаме медиите четвъртата власт, по аналогия, бих характеризирала и навлизането на изкуствения интелект в различни сфери на живота ни като следващата индустриална революция, която трансформира освен технологиите, но и нас като професионалисти в определена област. В резултат на бързото развитие на технологиите, свързани с изкуствения интелект, е жизненоважно да се създадат механизми и възможности за спазване на етичните норми и правни регулации, които да се актуализират и прилагат ефективно, за да функционират в хармония с принципите на ЕС, да защитят интересите на обществото и да поддържат доверието на човека в технологията.
Дефиниции и концепция за изкуствен интелект
В тази част на статията при използване на методика, включваща кабинетното проучване и дискурсивния анализ на селектирани научни и правни източници, се извеждат резултати в теоретичен план. Хипотезата е, че с безпрецедентния си потенциал за иновации и прогрес, изкуственият интелект е съпроводен от редица етични дилеми, които изискват внимание. Ето защо в статията се проучват етичните въпроси, произтичащи от машинното обучение, дигиталната конвергенция и други. За да разберат какви са целта, предметът и обхватът на Законодателния акт за изкуствения интелект, то трябва представи дефиницията, така сме свикнали от теорията в правото, но и във всяка друга дисциплина. Съгласно предмета на регламента, дефиниран в член 3, параграф 1 „система с изкуствен интелект“ (система с ИИ) означава софтуер, разработен с една или повече от техниките и подходите, посочени в приложение I, който може по отношение на даден набор от цели, определени от човек, да генерира резултати, като съдържание, прогнози, препоръки или решения, които оказват въздействие върху средите, с които взаимодействат. [1]
Основната мисия на Законодателния акт за ИИ е, основавайки се на европейски ценности и защита на основните права, да изгради доверие сред всички потребители, увереност при прилагането на решения, базирани на изкуствен интелект и едновременно да подкрепя иноваторите в разработването на такива решения. Изкуственият интелект трябва да функционира като инструмент в полза на човека и категоризатор за социален напредък, с амбицията да се увеличи общественото благосъстояние. Затова регулациите за ИИ в Европейския съюз трябва да бъдат насочени към човешкото благо, осигурявайки на хората увереност, че технологията се използва по начин, който е безопасен и в съответствие със законовите изисквания, при зачитане на човешките права.
Етичните проблеми, произлизащи от развитието на машинното обучение, налагат преосмисляне на вижданията за морал и етика в контекста на новите технологии. В дигиталната ера изкуственият интелект поставя под въпрос основополагащи понятия като автономност и отговорност, изисквайки от нас да разгледаме ролята на технологията в изграждането на благополучно общество. Освен това моралните въпроси, свързани с изкуствения интелект, повдигат дебата дали е възможно и практически осъществимо да се „държат“/определят системи с изкуствен интелект, отговорни за техните действия, особено когато тези системи могат да предизвикат морално значими последици, като например в случая с автономните превозни средства и други технологии, които взаимодействат с нашия свят. Тези ключови акценти съставляват основата на настоящото проучване, като подчертават необходимостта от дълбоко и многопластово разбиране на въпросите, които изкуственият интелект поставя пред съвременното общество.
Разрешаването на тези проблеми изисква точно определяне на термина „изкуствен интелект“ и каква е неговата същност? Може ли, подобно на дефиницията в регламента изобщо да се формулира стабилна дефиниция за нещо толкова променливо и непрекъснато еволюиращо, чийто краен етап остава неизвестен и е част от далечното бъдеще? Създаването на такова легално определение, което да бъде устойчиво в следващите години определено е предизвикателство пред Европейския съюз.
Понятието „изкуствен интелект“ се заражда през далечната 1955 г. и е въведено от станфордския професор Джон Маккарти [2], който я дефинира като „наука и инженерство на създаване на интелигентни машини“. Независимо от дадената легална дефиниция в Законодателния акт за изкуствения интелект, през годините дискусията относно определени негови аспекти и формирането на понятия, носещи характеристиките на правна дефиниция за изкуствения интелект, са много. Най-застъпените възприятия сред експертите по темата са, че дефиницията може да бъде разделена на две категории. Тази, попадаща сред абстрактните дефиниции, а именно описваща АI чрез сравнение на неговите функции (специфичните задачи, които може да върши) с умения, традиционно приписвани само на човешкия ум. В тази рамка, изкуственият интелект обикновено се представя като софтуер, програма или система, която осъществява дейности и реагира по начин, който е подобен или изисква човешко ниво на интелект, т.е. по метод, аналогичен на човешките реакции. Точно чрез тази дефиниция се развиват някои неточни термини като „интелигентни машини“ или „интелигентен софтуер“, където част от тези системи наистина имат атрибути на изкуствен интелект, докато други не отговарят напълно на определението. Втората категория определя описващи концепцията за „определение за изкуствен интелект“ стъпват на способността му да действа по указания и задачи, поставени му от човека чрез употребата на алгоритъм, както и на база неговата самостоятелност, способност за адаптация, ниво на непредвидимост и самообучение.
Най-широко застъпеното възприятие за понятието „изкуствен интелект“ на изследователи, които най-енергично подкрепят развитието на научните изследвания и технологичните иновации в сферата на изкуствения интелект, и за специалистите в тази област, изглежда несъмнено, че изкуственият общ интелект (Аrtificial General Intelligence), който имитира поведението и процеса на вземане на решения на човешкия ум, всъщност не притежава способността да мисли и разсъждава в истинския смисъл на тези дейности, които са ключови за интелекта. Изкуственият интелект няма чувства, стимул, цел, етика за изпълнението на поставените му задачи. Въпреки че е способен да формира решения, изводи и хипотези, той не разполага със съзнание. Това предположение трябва да се приема с определена резерва – всяко изказване или заключение относно изкуствения интелект винаги следва да се счита за потенциално преходно, като се има предвид вероятността скорошни развития да го опровергаят.
Тъй като предизвикателствата пред регулаторните органи за изграждане на една устойчива правна рамка на постоянно развиващата се дефиниция на системите за ИИ са безброй, а методите и инструментите са динамични, фокусът в настоящия доклад ще бъде насочен към дефиниране първо на етични въпроси, произтичащи от машинното обучение, общоетичните въпроси, свързани в живота в дигиталния свят и моралните въпроси, свързани със системите за ИИ.
След като подчертахме значението на етичните въпроси и размисли около машинното обучение и изкуствения интелект, става ясно, че важността на тези въпроси води до необходимостта от създаване на ефективни политики и регулации. Това подтиква да разгледаме как европейските стратегии и законодателство в областта на изкуствения интелект работят за интегрирането на тези етични принципи в практическа рамка, с цел да се гарантира, че развитието и прилагането на технологии с изкуствен интелект не само насърчава иновациите, но и защитава основните човешки права и свободи. В този контекст е необходим и кратък обзор и преглед на някой европейски политики и регулации в сферата на изкуствения интелект. Бялата книга за изкуствения интелект на ЕС може да бъде категоризирана като първата стратегия за насърчаване навлизането на технологии с изкуствен интелект. Политическата рамка, представена в Бялата книга, установява стратегии за координиране на действията на европейско, национално и регионално ниво. Тя цели да насърчи сътрудничеството между частния и държавния сектор, за да осигури необходимите ресурси за развитието на „екосистема с високи постижения“ през целия процес на създаване на стойност от научните изследвания и иновациите до стимулиране на бързото прилагане на решения с изкуствен интелект.
В рамките на Европейския съюз се води активен диалог относно бързото прогресиране в областта на науката и технологиите, свързани с изкуствения интелект, както и за стратегическото позициониране на ЕС в световната надпревара. Обсъждат се не само потенциалът и възможностите, но и рисковете, които използването на изкуствен интелект може да представлява, като тази тема е особено актуална в последните години. В този смисъл целта на Законодателният акт за изкуствения интелект на Европейския съюз е да установи хармонизирани правила за разработването, внедряването и използването на системи за ИИ в рамките на държавите членки. Основната му задача е да насърчи иновациите и употребата на технологии, свързани с ИИ, докато едновременно с това се защитават основните права и свободи на гражданите. Регламентът се стреми да осигури безопасност, прозрачност и отчетност на системите с ИИ, като въвежда различни изисквания за тях, в зависимост от техния потенциален риск за обществото. Чрез тази регулаторна рамка ЕС цели да създаде доверие в технологиите, използващи ИИ и да подкрепи тяхното устойчиво развитие, което е в съответствие с европейските ценности и стандарти. Неслучайно и в член 52 от Регламента [3] законодателят е предвидил задължения за прозрачност за системи с изкуствен интелект. Доставчиците следва да гарантират, че системите с ИИ, предвидени за комуникация с физически лица, са създадени и развити така, че когато човек взаимодейства с тях, да е наясно, че комуникацията е с машина, освен в случаите, когато това е ясно разбираемо от ситуацията и контекста на използване. Изключение от това правило не се прилага за системи с изкуствен интелект, които са легитимирани от закона да събират информация, да предотвратяват, разследват или преследват престъпления, освен когато такива системи са достъпни за обществеността за докладване на престъпления.
На следващо място, законодателният акт за изкуствения интелект (ИИ) представлява ключова стъпка в подкрепа на технологичните иновации в рамките на Европейския съюз, като специфично член 53 акцентира на създаването на лаборатории за ИИ в държавите членки: Регулаторните лаборатории в областта на ИИ, създадени от компетентните органи на една или повече държави членки или от Европейския надзорен орган по защита на данните, осигуряват контролирана среда, която улеснява разработването, изпитването и признаването на иновативни системи с ИИ за ограничен период от време преди пускането им на пазара или въвеждането им в експлоатация съгласно конкретен план. Това се извършва под прекия надзор и ръководство на компетентните органи, за да се гарантира спазването на изискванията на настоящия регламент и, когато е приложимо, на други законодателни актове на Съюза и на държавите членки, чието спазване е обект на надзор в рамките на регулаторната лаборатория. [4] Тези лаборатории служат като основа за разработване и тестване на системи с ИИ в среда, която е строго контролирана, което позволява не само подобрение на технологичните достижения, но и гарантира, че тези разработки отговарят на етичните стандарти и принципи. В този контекст изводът от тази теза подчертава значението на регулаторната рамка за ИИ не само като механизъм за насърчаване на иновациите, но и като средство за укрепване на етичните основи в разработването на ИИ. Въведените мерки за създаване на специализирани лаборатории допринасят за устойчиво развитие на технологиите с ИИ, като същевременно осигуряват среда, в която спазването на етичните норми е водещ принцип. Така Законодателният акт за ИИ служи като фундамент за балансирано иновационно развитие, което уважава както научните, така и етичните измерения на технологичния напредък.
Технологиите, свързани с изкуствения интелект, се развиват с изключителна скорост и пораждат необходимостта от нови видове регулации и безопасни среди за тестване, като едновременно с това се осигурява отговорно новаторство и внедряване на необходимите защитни мерки и стратегии за смекчаване на рисковете. С цел поддържането на тази стабилна правна рамка, която подкрепя иновациите и е насочена към бъдещето, е препоръчително да се стимулират компетентните национални органи от различни държави членки да основават специализирани регулаторни среди за изкуствен интелект. Така ще се подпомогне разработката и тестовете на новаторски системи с ИИ в контролирана среда, преди те да бъдат официално представени на пазара или пуснати в употреба.
С фокус върху етичните и правни принципи е важно да се разглежда кой носи отговорност при възникване на проблеми, материални или нематериални щети, причинени от изкуствен интелект (AI). Това включва разглеждането на въпроси като определяне на правния субект, носещ отговорност, ролите на надзор и контрол, както и обезпечаване на механизми за обжалване и корекция. В тази връзка отговорността трябва да бъде разгледана не само в контекста на индивидуални действия, но и в рамките на организационни и социални структури. Вероятно това задава нови параметри в комуникацията човек – изкуствен интелект.
Директива на Европейския парламент и на Съвета за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуствения интелект (Директивата относно отговорността във връзка с изкуствен интелект)
Основната цел на Директивата, касаеща отговорността при използването на системи с изкуствен интелект, е да хармонизира правилата за предоставяне на защита на претърпелите вреди, причинени от системи за изкуствен интелект. Това действие цели да намали правната несигурност и фрагментирането, която възниква поради различията в националните законодателства на държавите – членки в ЕС. Такава е и трактовката в параграф 2 от чл. 1 Настоящата директива се прилага за граждански искове за обезщетение за вреди въз основа на извъндоговорна виновна отговорност в случаите, в които вредите, причинени от система с ИИ, настъпват след [края на срока за транспониране]. [5] Именно поради различните законодателни системи и регулации, и различаващите се национални правила при образуване на искове за обезщетение за причинени вреди от изкуствен интелект, се увеличават разходите по сделките за предприятията при трансгранична търговия с продукти или услуги, използващи ИИ, което води до значителни пречки пред пазара в ЕС. Чрез Директивата се цели да бъде преодоляна фрагментацията и да постави началото на създаване на хармонизирани условия за обезщетяване на причинени от системи с ИИ вреди. Това законодателно предложение е част от общия пакет от мерки в подкрепа на внедряването на изкуствения интелект при разработването на технологии с изкуствен интелект.
Избраният за прилагане законодателен инструмент – директива, едновременно постига дългосрочната политическа насока за хармонизиране и правна сигурност, но в същото време и предлага гъвкавост, така че регулациите да могат да бъдат лесно въведени в съществуващите национални системи за отговорност на държавите членки. От значение е да се подчертае, че Директивата не реформира фундаменталните дефиниции и доктрини, свързани с извъндоговорната отговорност (юрид. деликтната отговорност) във вътрешното законодателство. Тя има за цел предимно да улесни и подпомогне защитата на правата на претърпелите вреди и получаването на обезщетение за тях. Например в параграф 2 от чл. 4 е записано, че Държавите членки могат да приемат или запазят национални правила, които са по-благоприятни за ищците при обосноваване на гражданскоправни искове за извъндоговорна отговорност за вреди, причинени от система с ИИ, при условие че тези правила са съвместими с правото на Съюза. [6] Това се постига първо, като се установят отговорните лицата, второ, чрез осигуряването на достъп до съответните доказателства, които биха укрепили техния иск, и трето, чрез улесняване на доказателствената тежест за установяване на причинно-следствената връзка между противоправното поведение на виновните страни и настъпилата вреда в резултат на използването на изкуствен интелект, като се прехвърля тежестта на доказване.
Това ще бъде възможно по два начина: чрез предвидената в Директивата възможност съдът да разпореди разкриването на относими доказателства за високорискови системи с ИИ, за които съществуват подозрения, че биха или са причинили вреди. Законодателят е предвидил именно това в член 3 от Директивата: Държавите членки гарантират, че националните съдилища са оправомощени, по искане на потенциален ищец, който предварително е поискал от доставчик, лице, което е обект на задълженията на доставчика съгласно [член 24 или член 28, параграф 1 от Законодателния акт за изкуствения интелект], или ползвател да разкрият съответните доказателства, с които разполагат относно конкретна високорискова система с ИИ, за която има подозрения, че е причинила вреди, но е получил отказ, или по искане на ищец, да разпоредят разкриването на такива доказателства от тези лица. [7] И на следващо място, като се изгражда презумпция за наличие на причинно-следствена връзка между виновното поведение и причинените от системите с ИИ резултати или непостигнати такива, в резултат на което е възникнала съответната вреда.
Целта на тази Директива е да улесни ефективното функциониране на вътрешния пазар чрез хармонизиране на някой национални правила за извъндоговорна отговорност, като лицата, които претендират обезщетение, причинено от система с изкуствен интелект, имат достъп до защита наравно с тези, претендиращи обезщетение за вреди, причинени без участието на система с изкуствен интелект.
Машинно обучение и етични въпроси, произтичащи от него
През декември 2018 г. групата на високо равнище по въпросите на изкуствения интелект публикува първия си проект на етични насоки на ЕС за изкуствен интелект. Проектът на насоките беше достъпен с възможност за консултации до 1 февруари 2019 г. През 2018 г. ЕК публикува и координиран план за изкуствения интелект, който имаше за цел да координира прегледа на съществуващото законодателство. [8]
Изкуственият интелект разкрива прекрасна възможност за увеличаване на благосъстоянието и стимулиране на икономическия растеж, цели, които са в основата на стремежите на Европа. Предвид наличието на обемни цифрови данни, напредналите изчислителни системи и прогреса в ИИ технологиите, като машинното обучение, последните десет години донесоха значителни успехи в множество сфери. Приложения на изкуствения интелект, включително в областите на автономните превозни средства, здравеопазването, битовите и професионалните роботи, образованието и киберсигурността, непрекъснато подобряват нашето ежедневие. Това е динамично развиваща се комуникация между човека и изкуствения интелект. По този начин ИИ играе критична роля за преодоляването на глобалните предизвикателства като здравеопазването и благосъстоянието, климатичните промени, устойчивостта на социалните и демографските системи и други, но поражда и много въпроси, свързани с проблемите, които произтичат от характеристиките на машинното обучение. Именно тези техники за машинно обучение се основават на невронни мрежи. Аспекти на тези методи, които водят до етични въпроси, включват липсата на прозрачност, невъзможността за предвидимост и нуждата от обширни масиви от данни за обучение или „трениране“ на технологиите. Категорично не може да бъде направен извод, че разработчикът, внедряващият и крайният потребител могат да бъдат сигурни как системата ще отговори на входни данни. В тази хипотеза системата се обучава, бъдейки по този начин адаптивна и променлива, следователно предходното ѝ действие не може да служи като основа за конкретно предположение и бъдещи реакции при същите условия.
Етичните проблеми, произтичащи от машинното обучение, са тези, свързани с неприкосновеността на личния живот и защитата на личните данни. Изкуственият интелект, основан на машинно обучение, създава риск за защита на данните, тъй като? се нуждае от голям масив с набор от данни за целите на обучението си и именно достъпът до тези масиви данни поставя въпроса колко защитими са личните ни данни? Тук знак за равенство между информационна поверителност и защитата на лични данни не може да бъде поставен, тъй като защитата на данните е по-скоро средство за защита на информационната поверителност. Именно проблемът за системите с изкуствен интелект е, че тяхната способност е да открива методи и модели, които могат да създадат рискове за нарушаване на неприкосновеността на личния живот чрез достъп до лични данни посредством непозволен или нерегламентиран достъп до тях. В съвременните технически общества компютрите взаимодействат с хората по начин, който може да засегне морални права и задължения, тъй като навсякъде използваме данни, които ни идентифицират по един или друг начин. [9] Защитата на данните е свързана с тяхната сигурност, киберсигурността е един от проблемите не само на изкуствения интелект, но и на съвременните информационни и комуникационни технологии.
Този етичен въпрос, свързан с неприкосновеността на личния живот и защита на данните, води към следващия свързан с надеждността на системите с изкуствен интелект. Това е ключов момент, тъй като човекът може да се възползва от предимствата на изкуствения интелект само ако има доверие на технологиите. За да се счита изкуственият интелект за надежден, той трябва да изпълнява два критерия: на първо място е необходимо да уважава основните човешки права, съответната регулаторна рамка, както и ключовите принципи и ценности, което осигурява „етически обоснованата му цел“ и на второ място, изкуственият интелект трябва да бъде технически издържан и сигурен, защото, въпреки добрите си намерения, нестабилната технология може да доведе до непреднамерени вреди. В този смисъл резултатите на системите за машинно обучение зависят от качеството на данните за обучение, респективно оценката на риска би следвало да бъде формирана по различни критерии. Ето защо надеждността на едни системи за обучение на изкуствен интелект могат да бъдат оценявани по различен начин от други системи, което е възможно да създаде различен етичен проблем, ако резултатите на системите засягат различна етична стойност и най-вече такива в сферата на медицинските и клинични проучвания. [10]
Като следващ етичен въпрос, произтичащ от машинното обучение, това е прозрачността на алгоритмите или моделите на прозрачност. Прозрачността реферира към отчетност за управлението на данни, зачитане автономността на хората, спазване на принцип за недискриминация, защита на личната неприкосновеност и стабилност. Важно е да се установи как точно данните, генерирани от процеси на машинно обучение, се съблюдават в съответствие с тези етични насоки. Разглеждането на технически и нетехнически стратегии е ключово за осигуряване на съответствие с тези стандарти в системите с ИИ. Важно е да се подчертае необходимостта от ясно и активно предоставяне на информация към всички заинтересовани страни, като клиенти и служители, относно възможностите и ограниченията на системите с ИИ, за да могат те да формират реалистични очаквания. От ключово значение е също така да се осигури проследяемост на тези системи. Представянето на надежден ИИ като част от корпоративната култура и комуникацията към заинтересованите страни относно неговата важност в процеса на разработка и използване на системите с ИИ е съществено. Включването на надеждни системи с ИИ в корпоративни документи – като част от бизнес комуникацията в съвременни условия – като кодекси за етика и поведение, е също от съществено значение за поддържането на високи стандарти.
Етичните и комуникационните предизвикателства, разгледани в този раздел, са обвързани с техническите аспекти на машинното обучение. Въпреки това, има и други етични въпроси, които не са директно свързани с машинното обучение, а по-скоро са асоциирани с характеристиките на по-широките социално-технически системи, които ще бъдат разгледани в следващата глава.
Eтични, морални и комуникационни предизвикателства в дигиталната епоха
С нарастване употребата на изкуствен интелект в различни сфери на обществения живот, възникват много етични и морални предизвикателства, които изискват обмисляне и адекватни решения, за да се гарантира, че технологиите подпомагат обществото без да вредят на основните човешки права и свободи. Преминахме по-горе в доклада през преглед на етичните проблеми, произтичащи от машинното обучение като неприкосновеността на личния живот и защитата на личните данни, надеждността на системите с изкуствен интелект и прозрачността на алгоритмите.
Времето, прекарано в онлайн среда поставя потребителите на интернет и други комуникационни и етични въпроси и в екзистенциален план и това е свободата. Влиянието на системите с изкуствен интелект е голямо и едновременно изтънчено. Технологиите около нас оформят обсега на нашите възможни действия, като предоставят или ограничават достъпа до информация. Съвременните технологии, дигиталната среда и системите с изкуствен интелект отчасти имат способността да предоставят нови хоризонти, но често и ограничават човешките възможности без ние да осъзнаваме това. Пример за това са резултатите от интернет търсачките. Търсачките са инструменти, които играят централна роля в начина, по който потребителите навигират и взаимодействат в условията на виртуална комуникация и с дигитални инструменти с обемната информация в интернет. С развитието на изкуствения интелект, търсачките стават все по-мощни, предлагайки бързо и точно съответствие на потребителски заявки с релевантни резултати. Въпреки тези ползи, интеграцията на ИИ в търсачките създава редица етични предизвикателства, които изискват внимателно обмисляне и управление. Търсачките разчитат в голяма степен на изкуствения интелект. Те оформят това, което потребителите виждат и възприемат за важно, влияейки на техните последващи действия. Доставчиците на търсачки включват това в своя бизнес модел, като предпочитат платено съдържание в по-видимите секции на резултатите, насърчавайки потребителите към покупки. Един от най-съществените етични въпроси в контекста на търсачките е непрозрачността на алгоритмите. Търсачките често не разкриват как точно са структурирани техните алгоритми или какви фактори влияят на подреждането на резултатите. Това затруднява отчетността, тъй като потребителите и регулаторите – в правен, етичен и комуникативен план – не могат лесно да оценят дали резултатите са представени справедливо, или са манипулирани по начин, който предпочита определени страни или идеологии. Тъй като алгоритмите на системите с изкуствен интелект се обучават на базата на предходни данни, съществува риск от пренос на съществуващи предразсъдъци в резултатите от търсенето. Например, ако алгоритъмът е трениран с данни, които непропорционално представят или фаворизират определени демографски групи, той може автоматично да продължи да увеличава тези предразсъдъци. Така търсачките могат да усилват неравенствата в информационния достъп и представителност. Технологиите с изкуствен интелект, вградени в търсачките, могат да бъдат използвани за манипулиране на потребителските възприятия и вземането на решения. Търсачките могат да променят начина, по който информацията е представена, за да влияят на обществените настроения или да насочват потребителите към определени политически или икономически интереси.
Интеграцията на изкуствения интелект в търсачките носи обещанието за подобрение на информационната достъпност и персонализация, но също така поставя пред експертите и потребителите на интернет сериозни етични въпроси, които изискват строги регулации и прозрачни практики. Важно е да се установят ясни рамки за отчетност и непрекъснат мониторинг на алгоритмичните процеси, за да се гарантира, че търсачките служат на обществения интерес, докато се защитават личните и колективни права на индивидите. Много са общоетичните въпроси, които са свързани с живота в дигиталния свят и тези, които изкуственият интелект поражда, затова като извод може да се изведе необходимостта от по-ясно осмисляне на ключови понятия, като автономия и отговорност и ролята на технологията в едно добро общество.
Дискусионни въпроси
Един от най-дискусионните въпроси, свързани с изкуствения интелект, е този дали изкуственият интелект трябва да бъде признат като правен субект. Отговорът на този въпрос не е лесен дори само в теоретичен план. Възможни са и други въпроси, например този за отговорността от непозволеното увреждане, обезщетяване при настъпване на такива вреди, правата на интелектуална собственост, авторските права, защитата на потребителите и други.
Изхождайки от обща теория на правото първо трябва да обясня за читателите какво е субект на правото съгласно правната доктрина. В механизма на правното регулиране се включва индивидът, като субектите на правото са човешки индивиди или техни общности, които при проявлението на юридическите факти участват в регулираните от правото обществени отношения. Призната от правото възможност на лицето да бъде участник в правния живот се нарича правосубектност с трите си форми – правоспособност (юридически признатата от правото възможност едно лице да бъде носител на права и задължения), дееспособност (юридически признатата възможност на едно лице чрез свое правомерно поведение да предизвиква настъпването на правни последици) и деликтоспособност (юридически признатата възможност едно лице да бъде носител на юридическа отговорност). [11] Що се касае до въпроса сред нас ли са системите с изкуствен интелект и дали те са субект на правото? Отговорът на този въпрос е предпоставен от волята на законодателите в Европейския съюз, а и от всяка една законодателна система на съответната държава членка да признае или не юридическа персонификация на изкуствения интелект. Възприятието към днешна дата от държавите в Европейския съюз е, че изкуственият интелект не е субект, а обект на правото, поради което той не притежава собствена правосубектност, респективно той не може да бъде носител на права и задължения, нито да поема юридическа отговорност при вреди, причинени от решения при използвана технология с изкуствен интелект.
От морално-ценностно естество може ли да държим настоящите системи с изкуствен интелект отговорни? Това е практически въпрос в случаите, когато системите изкуствен интелект могат да създадат морално значими последици, какъвто е случаят с автономните превозни средства, приложения на системи с изкуствен интелект в роботизираната хирургия, такива за подбор на автобиографии и набиране на персонал, както и много други системи, които взаимодействат със света. На всички тези въпроси тепърва ще бъде търсен и намерен отговор с оглед големия интерес на експерти и практици в областта на технологии с изкуствен интелект.
Заключение
Много са предизвикателствата и етичните аспекти на изкуствения интелект, но за да се справят експертите с този ребус, трябва да се съсредоточат върху механизмите за разрешаването им посредством правната регулация на системите с изкуствен интелект и тяхната отговорност. Изкуственият интелект следва да бъде ориентиран към човека и да служи като помощник в неговите каузи, борби и цели. Изкуственият интелект трябва да бъде разработван, внедряван и използван с идеята за етично обосновани цели като защита и отразява основните права и свободи, ценности и етични принципи, залегнали като приоритети цели в политиката и регулациите на ЕС. Той следва да свежда своите действия, водейки към най-добри резултати за човешкия интерес и минимизиране възможностите за причиняване на вреда. Изкуственият интелект трябва да бъде надежден, прозрачен, безопасен, спазвайки принципите за зачитане автономността на човека, недискриминация и неприкосновеност на личния живот.
След теоретичния обзор относно етичните и комуникационните аспекти на изкуствения интелект и предизвикателствата за регулацията им могат да се направят следните изводи:
- Поради увеличаването на способността на системите с изкуствен интелект да анализира огромни количества лични данни, то следва да се положат повече усилия в насока спазване на принципа за неприкосновеността на личния живот и защитата на личните данни. Въпроси за събирането, съхранението и използването на личните данни са от съществено значение, особено в контекста на нормативните изисквания като Общия регламент за защита на данните (GDPR) в Европейския съюз.
- Принцип за прозрачност на алгоритмите: един от ключовите изводи е, че прозрачността в алгоритмите е от съществено значение за осигуряване на доверие и отчетност. Това включва ясно разкриване на начините, по които системите с изкуствен интелект вземат решения, особено когато тези решения влияят на хора или когато са свързани с чувствителни области като например здравеопазване или правосъдие.
- Спазване на етични принципи в машинното обучение: важно е да се въведат и спазват строги етични принципи при обучението на машините, за да се гарантира, че системите с изкуствен интелект не възпроизвеждат решения подобни на съществуващи човешки предразсъдъци или дискриминация. Това изисква внимателен подбор и анализ на използваните данни, както и постоянен мониторинг и корекции на алгоритмите.
- Определяне на отговорността на системите с изкуствен интелект и отчетност: докладът подчертава нуждата от ясно определяне на отговорността при възникване на вреди, причинени от системи за изкуствен интелект. В ЕС трябва да се установят механизми за уреждане на претенции и компенсации за пострадалите, което изисква промени в правните механизми, обхващащи предизвикателства, свързани с автономните технологии.
- Обучение и адаптация: важността на непрекъснато образование и обучение на експерти и практици в сферата на технологиите с изкуствен интелект се очертава като ключова за поддържането на актуални знания и умения за ефективно регулиране и надзор. Това включва развиване на способности за оценка на етично и социално въздействие на системите с ИИ с перспектива да се постигне баланс между иновациите и обществените интереси.
- Правни механизми и регулации: необходимост от разработване на задължителни регулаторни рамки, които да управляват разработката и употребата на технологии/системи с изкуствен интелект. Тези законодателни механизми трябва да гарантират, че всички системи с ИИ са безопасни, справедливи и съвместими с основните човешки права и свободи.
Въпреки че Законодателният акт за изкуствения интелект и Директивата относно отговорността във връзка с изкуствения интелект представляват значителни стъпки напред в регулацията на разработването, разпространението на системи с изкуствен интелект и употребата им, успехът в тази област зависи също така от сътрудничеството между различни заинтересовани страни, активното участие на гражданите и редица други фактори. В бъдеще би било важно да се проследяват и оценяват ефективността на тези регулаторни мерки и техните резултати в дигиталното пространството. Допускането е, че този процес на наблюдение и оценка ще играе решаваща роля за определяне на посоките за развитие на политиките на ЕС в тази област. Поради тази причина е наложително законодателството да бъде приспособено към бизнес моделите на 21. век и да се предостави възможност на системите с изкуствен интелект да функционират на пазара в полза на потребителите, съчетана с гаранция за висока степен на защита на техните интереси и осигуряване на благоприятна среда за приобщаващ, плуралистичен обществен дебат за подобряване на правните механизми и сътрудничество между граждани и институции в развиващия се свят на технологиите с изкуствен интелект.
Цитати и бележки
[1] Предложение за Регламент на Европейския парламент и на Съвета за определяне на хармонизирани правила относно изкуствения интелект (Законодателен акт за изкуствения интелект) и за изменение на някои законодателни актове на съюза. https://eur-lex.europa.eu/legal-content/BG/ALL/?uri=CELEX%3A 52021PC0206. последно посещение на 01.06.2024. [Reglament na Evropeyskia parlament i na Saveta za opredelyane na harmonizirani pravila otnosno izkustvenia intelekt (Zakonodatelen akt za izkustvenia intelekt) i za izmenenie na nyakoi zakonodatelni aktove na sayuza. https://eur-lex.europa.eu/legal-content/BG/ALL/?uri= CELEX%3A52021PC0206. posledno poseshtenie na 01.06.2024.]
[2] Цитат по Stanford University Human-Centered Artificial Intelligence. Artificial Intelligence definitions. Оригинален текста: „Artificial Intelligence (AI), a term coined by emeritus Stanford Professor John McCarthy in 1955, was defined by him as “the science and engineering of making intelligent machines”. https://hai. stanford.edu/sites/default/files/2020-09/AI-Definitions-HAI.pdf. Retrieved on 02.06. 2024.
[3] Виж чл. 53 от предложение за Регламент на Европейския парламент и на Съвета за определяне на хармонизирани правила относно изкуствения интелект (Законодателен акт за изкуствения интелект) и за изменение на някои законодателни актове на Съюза. https://eur-lex.europa.eu/legal-content/BG/ALL/?uri= CELEX%3A52021PC0206. последно посещение на 01.06.2024. [Reglament na Evropeyskia parlament i na Saveta za opredelyane na harmonizirani pravila otnosno izkustvenia intelekt (Zakonodatelen akt za izkustvenia intelekt) i za izmenenie na nyakoi zakonodatelni aktove na sayuza. https://eur-lex.europa.eu/legal-content/BG/ ALL/?uri=CELEX%3A52021PC0206. posledno poseshtenie na 01.06. 2024.]
[4] Предложение за Регламент на Европейския парламент и на Съвета за определяне на хармонизирани правила относно изкуствения интелект (Законодателен акт за изкуствения интелект) и за изменение на някои законодателни актове на Съюза. https://eur-lex.europa.eu/legal-content/BG/ALL/?uri=CELEX%3A 52021PC0206. последно посещение на 01.06.2024. [Reglament na Evropeyskia parlament i na Saveta za opredelyane na harmonizirani pravila otnosno izkustvenia intelekt (Zakonodatelen akt za izkustvenia intelekt) i za izmenenie na nyakoi zakonodatelni aktove na sayuza. https://eur-lex.europa.eu/legal-content/BG/ALL/?uri= CELEX%3A52021PC0206. posledno poseshtenie na 01.06.2024.]
[5] Предложение за Директива на Европейския парламент и на Съвета за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуствения интелект (Директивата относно отговорността във връзка с ИИ) https://eur-lex.europa.eu/legal-content/BG/TXT/?uri=CELEX%3A52022PC 0496. последно посещение на 13.06.2024. [Predlozhenie za Direktiva na Evropeyskia parlament i na Saveta za adaptirane na pravilata za izvandogovorna grazhdanska otgovornost kam izkustvenia intelekt (Direktivata otnosno otgovornostta vav vrazka s II) https://eur-lex.europa.eu/legal-content/BG/TXT/?uri= CELEX%3A52022PC0496. posledno poseshtenie na 13.06.2024.]
[6] Предложение за Директива на Европейския парламент и на Съвета за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуствения интелект (Директивата относно отговорността във връзка с ИИ) https://eur-lex.europa.eu/legal-content/BG/TXT/?uri=CELEX%3A52022PC 0496. последно посещение на 13.06.2024. [Predlozhenie za Direktiva na Evropeyskia parlament i na Saveta za adaptirane na pravilata za izvandogovorna grazhdanska otgovornost kam izkustvenia intelekt (Direktivata otnosno otgovornostta vav vrazka s II) https://eur-lex.europa.eu/legal-content/BG/TXT/?uri=CELEX%3A52022PC04 96. posledno poseshtenie na 13.06.2024.]
[7] Предложение за Директива на Европейския парламент и на Съвета за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуствения интелект (Директивата относно отговорността във връзка с ИИ) https://eur-lex.europa.eu/legal-content/BG/TXT/?uri=CELEX%3A52022PC0496. последно посещение на 13.06.2024. [Predlozhenie za Direktiva na Evropeyskia parlament i na Saveta za adaptirane na pravilata za izvandogovorna grazhdanska otgovornost kam izkustvenia intelekt (Direktivata otnosno otgovornostta vav vrazka s II) https://eur-lex.europa.eu/legal-content/BG/TXT/?uri=CELEX%3A52022PC0496. posledno poseshtenie na 13.06.2024.]
[8] Draft Ethics guidelines for trustworthy AI. https://digital-strategy.ec.europa.eu/ en/library/draft-ethics-guidelines-trustworthy-ai. Retrieved on 02.06.2024.
[9] Draft Ethics guidelines for trustworthy AI. https://digital-strategy.ec.europa.eu/ en/library/draft-ethics-guidelines-trustworthy-ai. Retrieved on 02.06.2024.
[10] Carsten, B. S., (2004). Information, Ethics, and Computers: The Problem of Autonomous Moral Agents. Minds and Machines 14(1): 67–83. DOI: 10.1023/B: MIND.0000005136.61217.93.
[11] Вълчев, Д. (2019). Лекции по обща теория на правото. Том 2. София: Сиела, 146–150. [Valchev, D. (2019). Lektsii po obshta teoria na pravoto. Tom 2. Sofia: Siela, 146–150.]
Библиография
Вълчев, Д. (2019). Лекции по обща теория на правото. Том 2. София: Сиела, 146–150. [Valchev, D. (2019). Lektsii po obshta teoria na pravoto. Tom 2. Sofia: Siela, 146–150.]
Регламент на Европейския парламент и на Съвета за определяне на хармонизирани правила относно изкуствения интелект (Законодателен акт за изкуствения интелект) и за изменение на някои законодателни актове на Съюза. https://eur-lex.europa.eu/legal-content/BG/ALL/?uri=CELEX%3A52021PC0206. последно посещение на 01.06.2024. [Reglament na Evropeyskia parlament i na Saveta za opredelyane na harmonizirani pravila otnosno izkustvenia intelekt (Zakonodatelen akt za izkustvenia intelekt) i za izmenenie na nyakoi zakonodatelni aktove na sayuza. https://eur-lex.europa.eu/legal-content/BG/ALL/?uri= CELEX%3A52021PC0206. posledno poseshtenie na 01.06.2024.]
Blog OpenAI and Elon Musk. (2024). We are dedicated to the OpenAI mission and have pursued it every step of the way. (5 March 2024). https://openai.com/blog/openai-elon-musk. Retrieved on 02.06.2024.
Carsten, B. S., (2004). Information, Ethics, and Computers: The Problem of Autonomous Moral Agents. Minds and Machines 14(1): 67–83. DOI: 10.1023/ B:MIND.0000005136.61217.93
Draft Ethics guidelines for trustworthy AI. https://digital-strategy.ec.europa.eu/en/ library/draft-ethics-guidelines-trustworthy-ai. Retrieved on 02.06. 2024.
Pursuing the Ethics of Аrtificial Intelligence in Healthcare. https://www.cedars-sinai.org/newsroom/pursuing-the-ethics-of-artificial-intelligence-in-healthcare/. Retrieved on 02.06.2024.
Stanford University Human-Centered Artificial Intelligence. Artificial Intelligence definitions. https://hai.stanford.edu/sites/default/files/2020-09/AI-Definitions-HAI.pdf. Retrieved on 02.06.2024.
Мария Илиева е докторант в Нов български университет, департамент „Медии и комуникации“. Темата на нейната дисертация е „Европейски политики и регулации в сферата на дигиталните комуникации“. Научни ѝ интереси са в областите: защитата на личните данни, авторското право и цифровата информация. Тя анализира как правните рамки и регулации в Европа влияят върху развитието на дигиталните комуникации и как те налагат нови предизвикателства пред законотворците в ЕС. Мария Илиева е практикуващ юрист с над десетгодишен опит в сферата.
Ръкописът е изпратен на 12.06.2024 г.
Рецензиране от двама независими рецензенти: от 13.06.2024 до 14.07.2024 г.
Приемане за публикуване: 15.07.2024 г.
Manuscript was submitted: 12.06.2024.
Double Blind Peer Reviews: from 13.06.2024 till 14.07.2024.
Accepted: 15.07.2024.
Брой 60 на сп. „Реторика и комуникации“ (юли 2024 г.) се издава с финансовата помощ на Фонд научни изследвания, договор № КП-06-НП5/65 от 08 декември 2023 г.
Issue 60 of the Rhetoric and Communications Journal (July 2024) is published with the financial support of the Scientific Research Fund, Contract No. KP-06-NP5/65 of December 08, 2023.