Изкуствен интелект: правна регулация, отговорност, комуникационни и етични аспекти  

Политическа комуникация и дигитализация

Political Communication and Digitalisation

DOI 10.55026/LIZI1604

 

Мария Илиева

Нов български университет

Имейл: mariya.ilieva89@gmail.com

 

Абстракт: В статията се представят резултати от анализ на етичните прин­ципи, произтичащи от хармонизирането на Европейските политики и регу­лации в Европейския съюз (ЕС). Целта е да се направи анализ на системите за изкуствен интелект в ЕС през различни призми и чрез различни законо­дателни и незаконодателни инициативи (Регламенти, Директиви и Насоки и др.) на Европейския съюз. Използвани са методите на критичния анализ, ка­бинетното изследване и дискурсивния анализ на правни и нормативни доку­менти. Направен е преглед на някои етични и комуникационни аспекти на изкуствения интелект. Изведена е информация относно необходимостта от създаване и навлизане на изкуствения интелект в различни сектори, напра­вени са изводи относно стойността и значението му и защо той трябва да бъ­де регулиран. Изводите са в няколко посоки. Първо, данните, събирани пос­тоянно за потребителите от социални медии, сайтове и платформи в интернет, съдържат информация от личен и професионален характер. Второ, отговорността на системите и технологиите, базирани на изкуствен ин­телект, е съществен аспект, който се изучава, включително въпросите за от­го­ворност при причинените вреди, несъответствия, устойчивост и сигурност на системите, дискриминация и др. Трето, нараства значимостта на изуча­ването на етичните аспекти  относно прилагането и употребата на системи и технологии на изкуствен интелект, като в проучванията от научна и правна гледна точка се акцентира върху съвместимостта с основните ценности на обществото и спазването на правата на човека и комуникацията човек – из­куствен интелект.

Ключови думи:  изкуствен интелект, европейска регулация, етика, етични принципи в изкуствения интелект.

 

Artificial Intelligence: Legal Regulation,  Liability, Communication and Ethical Aspects

Mariya Ilieva

New Bulgarian University,

E-mail: mariya.ilieva89@gmail.com

 

Аbstract: The paper presents the results of an analysis of ethical principles arising from the harmonization of European policies and regulations in the European Union (EU). The aim is to analyze AI systems in the EU through different prisms and through different legislative and non-legislative initiatives (Regulations, Directives and Guidelines, etc.) of the European Union. The methods of critical analysis, desk research and discursive analysis of legal and regulatory documents are used. Some ethical and communication aspects of artificial intelligence are reviewed. Information on the need for the creation and penetration of artificial intelligence in various sectors is highlighted, conclusions are drawn on its value and importance and why it should be regulated. The conclusions are in several directions. Firstly, the data constantly collected about users from social media, websites and platforms on the internet contains information of a personal and professional nature. Second, the liability of systems and technologies based on artificial intelligence is an essential aspect that is being studied, including issues of liability for harm caused, non-compliance, sustainability and security of systems, discrimination, etc. Third, the study of ethical aspects regarding the application and use of AI systems and technologies is growing in importance, with scientific and legal research focusing on compatibility with the fundamental values of society and respect for human rights and human-artificial intelligence communication.

Keywords: artificial intelligence, European regulation, Ethics, Ethical principles in Artificial intelligence.

 

Увод

Във века на бързо развиващите се технологии темата за изкуствения интелект (ИИ) (Artificial Intelligence (AI)) изпъква като една от най-важните и вълнуващи, оказваща все по-категорично влияние върху всички иконо­мически сфери. Неговите възможности за промени са безгранични, но с тях съществуват и сериозни етични предизвикателства. Дискурсът за етичните аспекти на изкуствения интелект (ИИ) обхваща широк спектър от въпроси, свързани с правните и морални аспекти на развитието, прилагането и регу­лирането му. Въведението на изкуствения интелект в различни сектори на обществените услуги предлага безпрецедентни възможности за подоб­ряване на ефективността, прецизността и иновациите, но въпреки това съз­даването и навлизането на AI в ежедневието носи със себе си предиз­ви­кателства, касаещи правната регулация и отговорността на решенията взети в резултат на използването и приложението на изкуствен интелект. Същ­ността и целта му е да подпомага и автоматизира вземането на решения и процесите, но това също така поражда въпроси относно неговата прозрач­ност, справедливост, безопасност и отговорност.

Създаването на ефективни правни рамки и етични принципи за управ­ление на изкуствения интелект е от съществено значение за гарантиране на отговорното му използване. Това включва разработването на насоки и стан­дарти за защита на данните, личната неприкосновеност, недопускане на дискриминацията и прозрачност. Отговорността на изкуствения интелект и неговите създатели представлява гаранция, че технологията се разработва и използва по начин, който защитава и уважава човешките права и свободи. С развитието на изкуствения интелект ние навлизаме в ера, в която е невъз­можно единствено да бъде направен анализ и преглед на проблематиката, отнасяща се до етичните принципи в изкуствения интелект. Направено е допускането, че фокус следва да бъде даден и на правната регламентация на  същия. С оглед на тези динамични процеси се поставят под въпрос тра­диционните понятия за контрол, надзор и отговорност, изисквайки от нас да преосмислим и адаптираме нашите правни и етични рамки, за да отразим новите технологични реалности. Така, както метафорично наричаме ме­дии­те четвъртата власт, по аналогия, бих характеризирала и навлизането на из­куствения интелект в различни сфери на живота ни като следващата ин­дустриална революция, която трансформира освен технологиите, но и нас като професионалисти в определена област. В резултат на бързото развитие на технологиите, свързани с изкуствения интелект, е жизненоважно да се съз­дадат механизми и възможности за спазване на етичните норми и правни регулации, които да се актуализират и прилагат ефективно, за да функ­цио­нират в хармония с принципите на ЕС, да защитят интересите на общест­вото и да поддържат доверието на човека в технологията.

Дефиниции и концепция за изкуствен интелект

В тази част на статията при използване на методика, включваща ка­бинетното проучване и дискурсивния анализ на селектирани научни и прав­ни източници, се извеждат резултати в теоретичен план. Хипотезата е, че с безпрецедентния си потенциал за иновации и прогрес, изкуственият инте­лект е съпроводен от редица етични дилеми, които изискват внимание. Ето защо в статията се проучват етичните въпроси, произтичащи от машинното обучение, дигиталната конвергенция и други. За да разберат какви са целта, предметът и обхватът на Законодателния акт за изкуствения интелект, то трябва  представи дефиницията, така сме свикнали от теорията в правото, но и във всяка друга дисциплина. Съгласно предмета на регламента, дефи­ниран в член 3, параграф 1 система с изкуствен интелект“ (система с ИИ) означава софтуер, разработен с една или повече от техниките и под­ходите, посочени в приложение I, който може по отношение на даден на­бор от цели, определени от човек, да генерира резултати, като съдържа­ние, прогнози, препоръки или решения, които оказват въздействие върху средите, с които взаимодействат. [1]  

Основната мисия на Законодателния акт за ИИ е, основавайки се на европейски ценности и защита на основните права, да изгради доверие сред всички потребители, увереност при прилагането на решения, базирани на изкуствен интелект и едновременно да подкрепя иноваторите в разработ­ването на такива решения. Изкуственият интелект трябва да функционира като инструмент в полза на човека и категоризатор за социален напредък, с амбицията да се увеличи общественото благосъстояние. Затова регулациите за ИИ в Европейския съюз трябва да бъдат насочени към човешкото благо, осигурявайки на хората увереност, че технологията се използва по начин, който е безопасен и в съответствие със законовите изисквания, при зачитане на човешките права.

Етичните проблеми, произлизащи от развитието на машинното обуче­ние, налагат преосмисляне на вижданията за морал и етика в контекста на новите технологии. В дигиталната ера изкуственият интелект поставя под въпрос основополагащи понятия като автономност и отговорност, изиск­вайки от нас да разгледаме ролята на технологията в изграждането на благо­получно общество. Освен това моралните въпроси, свързани с изкуствения интелект, повдигат дебата дали е възможно и практически осъществимо да се „държат“/определят системи с изкуствен интелект, отговорни за техните действия, особено когато тези системи могат да предизвикат морално зна­чими последици, като например в случая с автономните превозни средства и други технологии, които взаимодействат с нашия свят. Тези ключови ак­центи съставляват основата на настоящото проучване, като подчертават не­об­ходимостта от дълбоко и многопластово разбиране на въпросите, които изкуственият интелект поставя пред съвременното общество.

Разрешаването на тези проблеми изисква точно определяне на тер­мина „изкуствен интелект“ и каква е неговата същност? Може ли, подобно на дефиницията в регламента изобщо да се формулира стабилна дефиниция за нещо толкова променливо и непрекъснато еволюиращо, чийто краен етап остава неизвестен и е част от далечното бъдеще? Създаването на такова ле­гално определение, което да бъде устойчиво в следващите години опре­делено е предизвикателство пред Европейския съюз.

Понятието „изкуствен интелект“ се заражда през далечната 1955 г. и е въведено от станфордския професор Джон Маккарти [2], който я дефи­нира като „наука и инженерство на създаване на интелигентни машини“. Независимо от дадената легална дефиниция в Законодателния акт за из­куствения интелект, през годините дискусията относно определени негови аспекти и формирането на понятия, носещи характеристиките на правна дефиниция за изкуствения интелект, са много. Най-застъпените възприятия сред експертите по темата са, че дефиницията може да бъде разделена на две категории. Тази, попадаща сред абстрактните дефиниции, а именно опис­ваща АI чрез сравнение на неговите функции (специфичните задачи, които може да върши) с умения, традиционно приписвани само на чо­вешкия ум. В тази рамка, изкуственият интелект обикновено се представя като софтуер, програма или система, която осъществява дейности и реагира по начин, който е подобен или изисква човешко ниво на интелект, т.е. по метод, аналогичен на човешките реакции. Точно чрез тази дефиниция се раз­виват някои неточни термини като „интелигентни машини“ или „ин­телигентен софтуер“, където част от тези системи наистина имат атрибути на изкуствен интелект, докато други не отговарят напълно на опреде­ле­нието. Втората категория определя описващи концепцията за „определение за изкуствен интелект“ стъпват на способността му да действа по указания и задачи, поставени му от човека чрез употребата на алгоритъм, както и на база неговата самостоятелност, способност за адаптация, ниво на непредви­димост и самообучение.

Най-широко застъпеното възприятие за понятието „изкуствен ин­телект“ на изследователи, които най-енергично подкрепят развитието на на­учните изследвания и технологичните иновации в сферата на изкуст­вения интелект, и за специалистите в тази област, изглежда несъмнено, че изкуственият общ интелект (Аrtificial General Intelligence), който имитира поведението и процеса на вземане на решения на човешкия ум, всъщност не притежава способността да мисли и разсъждава в истинския смисъл на тези дейности, които са ключови за интелекта. Изкуственият интелект няма чувства, стимул, цел, етика за изпълнението на поставените му задачи. Въпреки че е способен да формира решения, изводи и хипотези, той не разполага със съзнание. Това предположение трябва да се приема с опре­делена резерва – всяко изказване или заключение относно изкуствения ин­телект винаги следва да се счита за потенциално преходно, като се има пред­вид вероятността скорошни развития да го опровергаят.

Тъй като предизвикателствата пред регулаторните органи за  изграж­дане на една устойчива правна рамка на постоянно развиващата се дефи­ниция на системите за ИИ са безброй, а методите и инструментите са ди­намични, фокусът в настоящия доклад ще бъде насочен към дефиниране първо на етични въпроси, произтичащи от машинното обучение, общо­етич­ните въпроси, свързани в живота в дигиталния свят и моралните въпроси, свързани със системите за ИИ.

След като подчертахме значението на етичните въпроси и размисли около машинното обучение и изкуствения интелект, става ясно, че важ­ността на тези въпроси води до необходимостта от създаване на ефективни политики и регулации. Това подтиква да разгледаме как европейските стра­тегии и законодателство в областта на изкуствения интелект работят за интегрирането на тези етични принципи в практическа рамка, с цел да се гарантира, че развитието и прилагането на технологии с изкуствен интелект не само насърчава иновациите, но и защитава основните човешки права и свободи. В този контекст е необходим и кратък обзор и преглед на някой европейски политики и регулации в сферата на изкуствения интелект. Бя­лата книга за изкуствения интелект на ЕС може да бъде категоризирана като първата стратегия за насърчаване навлизането на технологии с изкуствен интелект. Политическата рамка, представена в Бялата книга, установява стратегии за координиране на действията на европейско, национално и ре­гионално ниво. Тя цели да насърчи сътрудничеството между частния и дър­жавния сектор, за да осигури необходимите ресурси за развитието на „еко­система с високи постижения“ през целия процес на създаване на стойност от научните изследвания и иновациите до стимулиране на бързото прила­гане на решения с изкуствен интелект.

В рамките на Европейския съюз се води активен диалог относно бър­зото прогресиране в областта на науката и технологиите, свързани с изкуст­вения интелект, както и за стратегическото позициониране на ЕС в светов­ната надпревара. Обсъждат се не само потенциалът и възможностите, но и рисковете, които използването на изкуствен интелект може да представлява, като тази тема е особено актуална в последните години. В този смисъл целта на Законодателният акт за изкуствения интелект на Европейския съюз е да установи хармонизирани правила за разработването, внедряването и из­полз­ването на системи за ИИ в рамките на държавите членки. Основната му задача е да насърчи иновациите и употребата на технологии, свързани с ИИ, докато едновременно с това се защитават основните права и свободи на гражданите. Регламентът се стреми да осигури безопасност, прозрачност и отчетност на системите с ИИ, като въвежда различни изисквания за тях, в зависимост от техния потенциален риск за обществото. Чрез тази регу­ла­торна рамка ЕС цели да създаде доверие в технологиите, използващи ИИ и да подкрепи тяхното устойчиво развитие, което е в съответствие с евро­пейските ценности и стандарти. Неслучайно и в член 52 от Регламента [3] законодателят е предвидил задължения за прозрачност за системи с изкуст­вен интелект. Доставчиците следва да гарантират, че системите с ИИ, пред­ви­дени за комуникация с физически лица, са създадени и развити така, че когато човек взаимодейства с тях, да е наясно, че комуникацията е с машина, освен в случаите, когато това е ясно разбираемо от ситуацията и контекста на използване. Изключение от това правило не се прилага за системи с из­куствен интелект, които са легитимирани от закона да събират информация, да предотвратяват, разследват или преследват престъпления, освен когато такива системи са достъпни за обществеността за докладване на престъп­ления.

На следващо място, законодателният акт за изкуствения интелект (ИИ) представлява ключова стъпка в подкрепа на технологичните иновации в рамките на Европейския съюз, като специфично член 53 акцентира на създаването на лаборатории за ИИ в държавите членки: Регулаторните лаборатории в областта на ИИ, създадени от компетентните органи на една или повече държави членки или от Европейския надзорен орган по защита на данните, осигуряват контролирана среда, която улеснява разработването, изпитването и признаването на иновативни системи с ИИ за ограничен период от време преди пускането им на пазара или въвеждането им в експлоатация съгласно конкретен план. Това се из­вършва под прекия надзор и ръководство на компетентните органи, за да се гарантира спазването на изискванията на настоящия регламент и, когато е приложимо, на други законодателни актове на Съюза и на дър­жавите членки, чието спазване е обект на надзор в рамките на регула­тор­ната лаборатория. [4] Тези лаборатории служат като основа за разра­ботване и тестване на системи с ИИ в среда, която е строго контролирана, което позволява не само подобрение на технологичните достижения, но и гарантира, че тези разработки отговарят на етичните стандарти и принципи. В този контекст изводът от тази теза подчертава значението на регула­торната рамка за ИИ не само като механизъм за насърчаване на иновациите, но и като средство за укрепване на етичните основи в разработването на ИИ. Въведените мерки за създаване на специализирани лаборатории допри­насят за устойчиво развитие на технологиите с ИИ, като същевременно осигуряват среда, в която спазването на етичните норми е водещ принцип. Така Законодателният акт за ИИ служи като фундамент за балансирано ино­вационно развитие, което уважава както научните, така и етичните изме­рения на технологичния напредък.

Технологиите, свързани с изкуствения интелект, се развиват с изклю­чителна скорост и пораждат необходимостта от нови видове регулации и безопасни среди за тестване, като едновременно с това се осигурява отго­ворно новаторство и внедряване на необходимите защитни мерки и стра­тегии за смекчаване на рисковете. С цел поддържането на тази стабилна прав­на рамка, която подкрепя иновациите и е насочена към бъдещето, е препоръчително да се стимулират компетентните национални органи от различни държави членки да основават специализирани регулаторни среди за изкуствен интелект. Така ще се подпомогне разработката и тестовете на новаторски системи с ИИ в контролирана среда, преди те да бъдат офи­циално представени на пазара или пуснати в употреба.

С фокус върху етичните и правни принципи е важно да се разглежда кой носи отговорност при възникване на проблеми, материални или не­ма­териални щети, причинени от изкуствен интелект (AI). Това включва раз­глеждането на въпроси като определяне на правния субект, носещ отго­ворност, ролите на надзор и контрол, както и обезпечаване на механизми за обжалване и корекция. В тази връзка отговорността трябва да бъде раз­гледана не само в контекста на индивидуални действия, но и в рамките на организационни и социални структури. Вероятно това задава нови пара­метри в комуникацията човек – изкуствен интелект.

Директива на Европейския парламент и на Съвета за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуст­вения интелект (Директивата относно отговорността във връзка с изкуствен интелект)

Основната цел на Директивата, касаеща отговорността при използ­ването на системи с изкуствен интелект, е да хармонизира правилата за предоставяне на защита на претърпелите вреди, причинени от системи за изкуствен интелект. Това действие цели да намали правната несигурност и фрагментирането, която възниква поради различията в националните зако­нодателства на държавите – членки в ЕС. Такава е и трактовката в пара­граф 2 от чл. 1 Настоящата директива се прилага за граждански искове за обезщетение за вреди въз основа на извъндоговорна виновна отговор­ност в случаите, в които вредите, причинени от система с ИИ, настъпват след [края на срока за транспониране]. [5] Именно поради различните законодателни системи и регулации, и различаващите се национални пра­вила при образуване на искове за обезщетение за причинени вреди от из­куствен интелект, се увеличават разходите по сделките за предприятията при трансгранична търговия с продукти или услуги, използващи ИИ, което води до значителни пречки пред пазара в ЕС. Чрез Директивата се цели да бъде преодоляна фрагментацията и да постави началото на създаване на хармонизирани условия за обезщетяване на причинени от системи с ИИ вреди.  Това законодателно предложение е част от общия пакет от мерки в подкрепа на внедряването на изкуствения интелект при разработването на технологии с изкуствен интелект.

Избраният за прилагане законодателен инструмент – директива, едно­временно  постига дългосрочната политическа насока за хармонизиране и правна сигурност, но в същото време и предлага гъвкавост, така че регу­лациите да могат да бъдат лесно въведени в съществуващите национални системи за отговорност на държавите членки. От значение е да се под­чертае, че Директивата не реформира фундаменталните дефиниции и докт­рини, свързани с извъндоговорната отговорност (юрид. деликтната отговор­ност) във вътрешното законодателство. Тя има за цел предимно да улесни и подпомогне защитата на правата на претърпелите вреди и получаването на обезщетение за тях. Например в параграф 2 от чл. 4 е записано, че Дър­жавите членки могат да приемат или запазят национални правила, които са по-благоприятни за ищците при обосноваване на гражданскоправни искове за извъндоговорна отговорност за вреди, причинени от система с ИИ, при условие че тези правила са съвместими с правото на Съюза. [6] Това се постига първо, като се установят отговорните лицата, второ, чрез осигуряването на достъп до съответните доказателства, които биха укре­пили техния иск, и трето, чрез улесняване на доказателствената тежест за установяване на причинно-следствената връзка между противоправното поведение на виновните страни и настъпилата вреда в резултат на използ­ването на изкуствен интелект, като се прехвърля тежестта на доказване.

Това ще бъде възможно по два начина: чрез предвидената в Дирек­тивата възможност съдът да разпореди разкриването на относими доказа­телства за високорискови системи с ИИ, за които съществуват подозрения, че биха или са причинили вреди. Законодателят е предвидил именно това в член 3 от Директивата: Държавите членки гарантират, че националните съдилища са оправомощени, по искане на потенциален ищец, който пред­варително е поискал от доставчик, лице, което е обект на задълженията на доставчика съгласно [член 24 или член 28, параграф 1 от Законо­дателния акт за изкуствения интелект], или ползвател да разкрият съот­ветните доказателства, с които разполагат относно конкретна високо­рискова система с ИИ, за която има подозрения, че е причинила вреди, но е получил отказ, или по искане на ищец, да разпоредят разкриването на такива доказателства от тези лица. [7] И на следващо място, като се изгражда презумпция за наличие на причинно-следствена връзка между виновното поведение и причинените от системите с ИИ резултати или не­постигнати такива, в резултат на което е възникнала съответната вреда.

Целта на тази Директива е да улесни ефективното функциониране на вътрешния пазар чрез хармонизиране на някой национални правила за извъндоговорна отговорност, като лицата, които претендират обезщетение, причинено от система с изкуствен интелект, имат достъп до защита наравно с тези,  претендиращи обезщетение за вреди, причинени без участието на система с изкуствен интелект.

 

Машинно обучение и етични въпроси, произтичащи от него

През декември 2018 г. групата на високо равнище по въпросите на изкуствения интелект публикува първия си проект на етични насоки на ЕС за изкуствен интелект. Проектът на насоките беше достъпен с възможност за консултации до 1 февруари 2019 г. През 2018 г. ЕК публикува и коор­диниран план за изкуствения интелект, който имаше за цел да координира прегледа на съществуващото законодателство. [8]

Изкуственият интелект разкрива прекрасна възможност за увелича­ване на благосъстоянието и стимулиране на икономическия растеж, цели, които са в основата на стремежите на Европа. Предвид наличието на обемни цифрови данни, напредналите изчислителни системи и прогреса в ИИ тех­но­логиите, като машинното обучение, последните десет години донесоха значителни успехи в множество сфери. Приложения на изкуствения ин­телект, включително в областите на автономните превозни средства, здраве­опазването, битовите и професионалните роботи, образованието и киберси­гурността, непрекъснато подобряват нашето ежедневие. Това е динамично развиваща се комуникация между човека и изкуствения интелект. По този начин ИИ играе критична роля за преодоляването на глобалните предиз­викателства като здравеопазването и благосъстоянието, климатичните про­мени, устойчивостта на социалните и демографските системи и други, но поражда и много въпроси, свързани с проблемите, които произтичат от ха­рактеристиките на машинното обучение. Именно тези техники за машинно обучение се основават на невронни мрежи. Аспекти на тези методи, които водят до етични въпроси, включват липсата на прозрачност, невъзмож­ността за предвидимост и нуждата от обширни масиви от данни за обучение или „трениране“ на технологиите. Категорично не може да бъде направен извод, че разработчикът, внедряващият и крайният потребител могат да бъдат сигурни как системата ще отговори на входни данни. В тази хипотеза системата се обучава, бъдейки по този начин адаптивна и променлива, следователно предходното ѝ действие не може да служи като основа за конкретно предположение и бъдещи реакции при същите условия.

Етичните проблеми, произтичащи от машинното обучение, са тези, свър­зани с неприкосновеността на личния живот и защитата на лич­ните данни. Изкуственият интелект, основан на машинно обучение, съз­дава риск за защита на данните, тъй като? се нуждае от голям масив с набор от данни за целите на обучението си и именно достъпът до тези масиви данни поставя въпроса колко защитими са личните ни данни? Тук знак за равенство между информационна поверителност и защитата на лични данни не може да бъде поставен, тъй като защитата на данните е по-скоро средство за защита на информационната поверителност. Именно проблемът за системите с изкуствен интелект е, че тяхната способност е да открива методи и модели, които могат да създадат рискове за нарушаване на непри­косновеността на личния живот чрез достъп до лични данни посредством непозволен или нерегламентиран достъп до тях. В съвременните техни­чески общества компютрите взаимодействат с хората по начин, който може да засегне морални права и задължения, тъй като навсякъде използваме дан­ни, които ни идентифицират по един или друг начин. [9] Защитата на дан­ните е свързана с тяхната сигурност, киберсигурността е един от проб­ле­мите не само на изкуствения интелект, но и на съвременните информа­ци­онни и комуникационни технологии.

Този етичен въпрос, свързан с неприкосновеността на личния живот и защита на данните, води към следващия свързан с надеждността на сис­темите с изкуствен интелект. Това е ключов момент, тъй като човекът може да се възползва от предимствата на изкуствения интелект само ако има доверие на технологиите. За да се счита изкуственият интелект за надежден, той трябва да изпълнява два критерия: на първо място е необходимо да уважава основните човешки права, съответната регулаторна рамка, както и ключовите принципи и ценности, което осигурява „етически обоснованата му цел“ и  на второ място, изкуственият интелект трябва да бъде технически издържан и сигурен, защото, въпреки добрите си намерения, нестабилната технология може да доведе до непреднамерени вреди. В този смисъл ре­зултатите на системите за машинно обучение зависят от качеството на дан­ните за обучение, респективно оценката на риска би следвало да бъде фор­мирана по различни критерии. Ето защо надеждността на едни системи за обучение на изкуствен интелект могат да бъдат оценявани по различен на­чин от други системи, което е възможно да създаде различен етичен проб­лем, ако резултатите на системите засягат различна етична стойност и най-вече такива в сферата на медицинските и клинични проучвания. [10]

Като следващ етичен въпрос, произтичащ от машинното обучение, това е прозрачността на алгоритмите или моделите на прозрачност. Прозрачността реферира към отчетност за управлението на данни, зачитане автономността на хората, спазване на принцип за недискриминация, защита на личната неприкосновеност и стабилност. Важно е да се установи как точ­но данните, генерирани от процеси на машинно обучение, се съблюдават в съответствие с тези етични насоки. Разглеждането на технически и нетех­нически стратегии е ключово за осигуряване на съответствие с тези стан­дарти в системите с ИИ. Важно е да се подчертае необходимостта от ясно и активно предоставяне на информация към всички заинтересовани страни, като клиенти и служители, относно възможностите и ограниченията на системите с ИИ, за да могат те да формират реалистични очаквания. От ключово значение е също така да се осигури проследяемост на тези сис­теми. Представянето на надежден ИИ като част от корпоративната култура и комуникацията към заинтересованите страни относно неговата важност в процеса на разработка и използване на системите с ИИ е съществено. Включ­ването на надеждни системи с ИИ в корпоративни документи – като част от бизнес комуникацията в съвременни условия – като кодекси за етика и поведение, е също от съществено значение за поддържането на високи стандарти.

Етичните и комуникационните предизвикателства, разгледани в този раздел, са обвързани с техническите аспекти на машинното обучение. Въп­реки това, има и други етични въпроси, които не са директно свързани с машинното обучение, а по-скоро са асоциирани с характеристиките на по-широките социално-технически системи, които ще бъдат разгледани в следващата глава.

Eтични, морални и комуникационни предизвикателства в диги­талната епоха

С нарастване употребата на изкуствен интелект в различни сфери на обществения живот, възникват много етични и морални предизвикателства, които изискват обмисляне и адекватни решения, за да се гарантира, че тех­но­логиите подпомагат обществото без да вредят на основните човешки пра­ва и свободи. Преминахме по-горе в доклада през преглед на етичните проб­леми, произтичащи от машинното обучение като неприкосновеността на личния живот и защитата на личните данни, надеждността на системите с изкуствен интелект и прозрачността на алгоритмите.

Времето, прекарано в онлайн среда поставя потребителите на ин­тернет и други комуникационни и етични въпроси и в екзистенциален план и това е свободата. Влиянието на системите с изкуствен интелект е голямо и едновременно изтънчено. Технологиите около нас оформят обсега на на­шите възможни действия, като предоставят или ограничават достъпа до информация. Съвременните технологии, дигиталната среда и системите с изкуствен интелект отчасти имат способността да предоставят нови хори­зонти, но често и ограничават човешките възможности без ние да осъзна­ваме това. Пример за това са резултатите от интернет търсачките. Търсач­ките са инструменти, които играят централна роля в начина, по който потре­бителите навигират и взаимодействат в условията на виртуална кому­никация и с дигитални инструменти с обемната информация в интернет. С развитието на изкуствения интелект, търсачките стават все по-мощни, пред­лагайки бързо и точно съответствие на потребителски заявки с релевантни резултати. Въпреки тези ползи, интеграцията на ИИ в търсачките създава редица етични предизвикателства, които изискват внимателно обмисляне и управление. Търсачките разчитат в голяма степен на изкуствения интелект. Те оформят това, което потребителите виждат и възприемат за важно, влияейки на техните последващи действия. Доставчиците на търсачки включват това в своя бизнес модел, като предпочитат платено съдържание в по-видимите секции на резултатите, насърчавайки потребителите към покупки. Един от най-съществените етични въпроси в контекста на тър­сачките е непрозрачността на алгоритмите. Търсачките често не разкриват как точно са структурирани техните алгоритми или какви фактори влияят на подреждането на резултатите. Това затруднява отчетността, тъй като потребителите и регулаторите – в правен, етичен и комуникативен план – не могат лесно да оценят дали резултатите са представени справедливо, или са манипулирани по начин, който предпочита определени страни или идео­логии. Тъй като алгоритмите на системите с изкуствен интелект се обучават на базата на предходни данни, съществува риск от пренос на съществуващи предразсъдъци в резултатите от търсенето. Например, ако алгоритъмът е трениран с данни, които непропорционално представят или фаворизират определени демографски групи, той може автоматично да продължи да увеличава тези предразсъдъци. Така търсачките могат да усил­ват нера­венст­вата в информационния достъп и представителност. Техноло­гиите с из­куст­вен интелект, вградени в търсачките, могат да бъдат използ­вани за манипу­лиране на потребителските възприятия и вземането на решения. Търсачките могат да променят начина, по който информацията е представена, за да влия­ят на обществените настроения или да насочват пот­ребителите към определени политически или икономически интереси.

Интеграцията на изкуствения интелект в търсачките носи обещанието за подобрение на информационната достъпност и персонализация, но също така поставя пред експертите и потребителите на интернет сериозни етични въпроси, които изискват строги регулации и прозрачни практики. Важно е да се установят ясни рамки за отчетност и непрекъснат мониторинг на алгоритмичните процеси, за да се гарантира, че търсачките служат на об­щест­вения интерес, докато се защитават личните и колективни права на ин­дивидите. Много са общоетичните въпроси, които са свързани с живота в дигиталния свят и тези, които изкуственият интелект поражда, затова като извод може да се изведе необходимостта от по-ясно осмисляне на ключови понятия, като автономия и отговорност и ролята на технологията в едно доб­ро общество.

Дискусионни въпроси

Един от най-дискусионните въпроси, свързани с изкуствения инте­лект, е този дали изкуственият интелект трябва да бъде признат като правен субект. Отговорът на този въпрос не е лесен дори само в теоретичен план. Възможни са и други въпроси, например този за отговорността от непоз­воленото увреждане, обезщетяване при настъпване на такива вреди, правата на интелектуална собственост, авторските права, защитата на потреби­телите и други.

Изхождайки от обща теория на правото първо трябва да обясня за чи­тателите какво е субект на правото съгласно правната доктрина. В меха­низ­ма на правното регулиране се включва индивидът, като субектите на пра­вото са човешки индивиди или техни общности, които при проявлението на юридическите факти участват в регулираните от правото обществени отно­шения. Призната от правото възможност на лицето да бъде участник в прав­ния живот се нарича правосубектност с трите си форми – правоспособност (юридически признатата от правото възможност едно лице да бъде носител на права и задължения), дееспособност (юридически признатата възмож­ност на едно лице чрез свое правомерно поведение да предизвиква настъп­ването на правни последици) и деликтоспособност (юридически признатата възможност едно лице да бъде носител на юридическа отговорност). [11] Що се касае до въпроса сред нас ли са системите с изкуствен интелект и дали те са субект на правото? Отговорът на този въпрос е предпоставен от волята на законодателите в Европейския съюз, а и от всяка една зако­нодателна система на съответната държава членка да признае или не юриди­ческа персонификация на изкуствения интелект. Възприятието към днешна дата от държавите в Европейския съюз е, че изкуственият интелект не е субект, а обект на правото, поради което той не притежава собствена правосубектност, респективно той не може да бъде носител на права и задължения, нито да поема юридическа отговорност при вреди, причинени от решения при използвана технология с изкуствен интелект.

От морално-ценностно естество може ли да държим настоящите сис­теми с изкуствен интелект отговорни? Това е практически въпрос в слу­чаите, когато системите  изкуствен интелект могат да създадат морално зна­чими последици, какъвто е случаят с автономните превозни средства, при­ло­жения на системи с изкуствен интелект в роботизираната хирургия, та­кива за подбор на автобиографии и набиране на персонал, както и много други системи, които взаимодействат със света. На всички тези въпроси тепърва ще бъде търсен и намерен отговор с оглед големия интерес на експерти и практици в областта на технологии с изкуствен интелект.

Заключение

Много са предизвикателствата и етичните аспекти на изкуствения интелект, но за да се справят експертите с този ребус, трябва да се съсре­доточат върху механизмите за разрешаването им посредством правната регулация на системите с изкуствен интелект и тяхната отговорност. Из­куст­веният интелект следва да бъде ориентиран към човека и да служи като помощник в неговите каузи, борби и цели. Изкуственият интелект трябва да бъде разработван, внедряван и използван с идеята за етично обосновани це­ли като защита и отразява основните права и свободи, ценности и етични принципи, залегнали като приоритети цели в политиката и регулациите на ЕС. Той следва да свежда своите действия, водейки към най-добри резул­тати за човешкия интерес и минимизиране възможностите за причиняване на вреда. Изкуственият интелект трябва да бъде надежден, прозрачен, без­опа­сен, спазвайки принципите за зачитане автономността на човека, не­дискриминация и неприкосновеност на личния живот.

След теоретичния обзор относно етичните и комуникационните ас­пек­ти на изкуствения интелект и предизвикателствата за регулацията им могат да се направят следните изводи:

  1. Поради увеличаването на способността на системите с изкуствен интелект да анализира огромни количества лични данни, то следва да се положат повече усилия в насока спазване на принципа за неприкосно­ве­ността на личния живот и защитата на личните данни. Въпроси за събира­нето, съхранението и използването на личните данни са от съществено зна­чение, особено в контекста на нормативните изисквания като Общия рег­ла­мент за защита на данните (GDPR) в Европейския съюз.
  2. Принцип за прозрачност на алгоритмите: един от ключовите изводи е, че прозрачността в алгоритмите е от съществено значение за осигуряване на доверие и отчетност. Това включва ясно разкриване на начините, по които системите с изкуствен интелект вземат решения, особено когато тези решения влияят на хора или когато са свързани с чувствителни области като например здравеопазване или правосъдие.
  3. Спазване на етични принципи в машинното обучение: важно е да се въведат и спазват строги етични принципи при обучението на машините, за да се гарантира, че системите с изкуствен интелект не възпроизвеждат ре­шения подобни на съществуващи човешки предразсъдъци или дискри­минация. Това изисква внимателен подбор и анализ на използваните данни, както и постоянен мониторинг и корекции на алгоритмите.
  4. Определяне на отговорността на системите с изкуствен интелект и отчетност: докладът подчертава нуждата от ясно определяне на отговор­ността при възникване на вреди, причинени от системи за изкуствен инте­лект. В ЕС трябва да се установят механизми за уреждане на претенции и компенсации за пострадалите, което изисква промени в правните меха­низми, обхващащи предизвикателства, свързани с автономните технологии.
  5. Обучение и адаптация: важността на непрекъснато образование и обучение на експерти и практици в сферата на технологиите с изкуствен интелект се очертава като ключова за поддържането на актуални знания и умения за ефективно регулиране и надзор. Това включва развиване на спо­собности за оценка на етично и социално въздействие на системите с ИИ с перспектива да се постигне баланс между иновациите и обществените инте­реси.
  6. Правни механизми и регулации: необходимост от разработване на задължителни регулаторни рамки, които да управляват разработката и упот­ребата на технологии/системи с изкуствен интелект. Тези законодателни механизми трябва да гарантират, че всички системи с ИИ са безопасни, справедливи и съвместими с основните човешки права и свободи.

Въпреки че Законодателният акт за изкуствения интелект и Дирек­тивата относно отговорността във връзка с изкуствения интелект пред­став­ляват значителни стъпки напред в регулацията на разработването, разпрост­ранението на системи с изкуствен интелект и употребата им, успехът в тази област зависи също така от сътрудничеството между различни заинтере­со­вани страни, активното участие на гражданите и редица други фактори. В бъдеще би било важно да се проследяват и оценяват ефективността на тези регулаторни мерки и техните резултати в дигиталното пространството. До­пускането е, че този процес на наблюдение и оценка ще играе решаваща роля за определяне на посоките за развитие на политиките на ЕС в тази област. Поради тази причина е наложително законодателството да бъде прис­пособено към бизнес моделите на 21. век и да се предостави въз­мож­ност на системите с изкуствен интелект да функционират на пазара в полза на потребителите, съчетана с гаранция за висока степен на защита на тех­ните интереси и осигуряване на благоприятна среда за приобщаващ, плура­листичен обществен дебат за подобряване на правните механизми и сътруд­ничество между граждани и институции в развиващия се свят на техноло­гиите с изкуствен интелект.

 

Цитати и бележки

[1] Предложение за Регламент на Европейския парламент и на Съвета за опре­деляне на хармонизирани правила относно изкуствения интелект (Зако­нода­телен акт за изкуствения интелект) и за изменение на някои законодателни ак­тове на съюза. https://eur-lex.europa.eu/legal-content/BG/ALL/?uri=CELEX%3A 52021PC0206. последно посещение на 01.06.2024. [Reglament na Evropeyskia parlament i na Saveta za opredelyane na harmonizirani pravila otnosno izkustvenia intelekt (Zakonodatelen akt za izkustvenia intelekt) i za izmenenie na nyakoi za­ko­nodatelni aktove na sayuza. https://eur-lex.europa.eu/legal-content/BG/ALL/?uri= CELEX%3A52021PC0206. posledno poseshtenie na 01.06.2024.]

[2] Цитат по Stanford University Human-Centered Artificial Intelligence. Artificial Intelligence definitions. Оригинален текста: „Artificial Intelligence (AI), a term coined by emeritus Stanford Professor John McCarthy in 1955, was defined by him as “the science and engineering of making intelligent machines”. https://hai. stanford.edu/sites/default/files/2020-09/AI-Definitions-HAI.pdf. Retrieved on 02.06. 2024.

[3] Виж чл. 53 от предложение за Регламент на Европейския парламент и на Съ­вета за определяне на хармонизирани правила относно изкуствения ин­телект (Законодателен акт за изкуствения интелект) и за изменение на някои зако­но­дателни актове на Съюза. https://eur-lex.europa.eu/legal-content/BG/ALL/?uri= CELEX%3A52021PC0206. последно посещение на 01.06.2024. [Reglament na Evropeyskia parlament i na Saveta za opredelyane na harmonizirani pravila otnosno izkustvenia intelekt (Zakonodatelen akt za izkustvenia intelekt) i za iz­menenie na nyakoi zakonodatelni aktove na sayuza. https://eur-lex.europa.eu/legal-content/BG/ ALL/?uri=CELEX%3A52021PC0206. posledno poseshtenie na 01.06. 2024.]

[4] Предложение за Регламент на Европейския парламент и на Съвета за оп­ре­деляне на хармонизирани правила относно изкуствения интелект (Законо­да­телен акт за изкуствения интелект) и за изменение на някои законодателни ак­тове на Съюза. https://eur-lex.europa.eu/legal-content/BG/ALL/?uri=CELEX%3A 52021PC0206. последно посещение на 01.06.2024. [Reglament na Evropeyskia parlament i na Saveta za opredelyane na harmonizirani pravila otnosno izkustvenia intelekt (Zakonodatelen akt za izkustvenia intelekt) i za izmenenie na nyakoi zakono­datelni aktove na sayuza. https://eur-lex.europa.eu/legal-content/BG/ALL/?uri= CELEX%3A52021PC0206. posledno poseshtenie na 01.06.2024.]

[5] Предложение за Директива на Европейския парламент и на Съвета за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуствения интелект (Директивата относно отговорността във връзка с ИИ) https://eur-lex.europa.eu/legal-content/BG/TXT/?uri=CELEX%3A52022PC 0496. последно посещение на 13.06.2024. [Predlozhenie za Direktiva na Evropeyskia parlament i na Saveta za adaptirane na pravilata za izvandogovorna grazh­danska otgovornost kam izkustvenia intelekt (Direktivata otnosno otgo­vornostta vav vrazka s II) https://eur-lex.europa.eu/legal-content/BG/TXT/?uri= CELEX%3A52022PC0496. posledno poseshtenie na 13.06.2024.]

[6] Предложение за Директива на Европейския парламент и на Съвета за адап­тиране на правилата за извъндоговорна гражданска отговорност към изкуст­вения интелект (Директивата относно отговорността във връзка с ИИ) https://eur-lex.europa.eu/legal-content/BG/TXT/?uri=CELEX%3A52022PC 0496. последно посещение на 13.06.2024. [Predlozhenie za Direktiva na Evropeyskia parlament i na Saveta za adaptirane na pravilata za izvandogovorna grazhdanska otgovornost kam izkustvenia intelekt (Direktivata otnosno otgovor­nostta vav vrazka s II) https://eur-lex.europa.eu/legal-content/BG/TXT/?uri=CELEX%3A52022PC04 96. posledno poseshtenie na 13.06.2024.]

[7] Предложение за Директива на Европейския парламент и на Съвета за адап­тиране на правилата за извъндоговорна гражданска отговорност към и­зкуствения интелект (Директивата относно отговорността във връзка с ИИ) https://eur-lex.europa.eu/legal-content/BG/TXT/?uri=CELEX%3A52022PC0496. последно посещение на 13.06.2024. [Predlozhenie za Direktiva na Evropeyskia parlament i na Saveta za adaptirane na pravilata za izvandogovorna grazhdanska ot­govornost kam izkustvenia intelekt (Direktivata otnosno otgovornostta vav vrazka s II) https://eur-lex.europa.eu/legal-content/BG/TXT/?uri=CELEX%3A52022PC0496. posledno poseshtenie na 13.06.2024.]

[8] Draft Ethics guidelines for trustworthy AI. https://digital-strategy.ec.europa.eu/ en/library/draft-ethics-guidelines-trustworthy-ai. Retrieved on 02.06.2024.

[9] Draft Ethics guidelines for trustworthy AI. https://digital-strategy.ec.europa.eu/ en/library/draft-ethics-guidelines-trustworthy-ai. Retrieved on 02.06.2024.

[10] Carsten, B. S., (2004). Information, Ethics, and Computers: The Problem of Autonomous Moral Agents. Minds and Machines 14(1): 67–83.  DOI: 10.1023/B: MIND.0000005136.61217.93.

[11] Вълчев, Д. (2019). Лекции по обща теория на правото. Том 2. София: Сиела, 146–150. [Valchev, D. (2019). Lektsii po obshta teoria na pravoto. Tom 2. Sofia: Siela, 146–150.]

Библиография

Вълчев, Д. (2019). Лекции по обща теория на правото. Том 2. София: Сиела, 146150. [Valchev, D. (2019). Lektsii po obshta teoria na pravoto. Tom 2. Sofia: Siela, 146150.]

Регламент на Европейския парламент и на Съвета за определяне на хармо­низи­рани правила относно изкуствения интелект (Законодателен акт за из­куст­вения интелект) и за изменение на някои законодателни актове на Съюза. https://eur-lex.europa.eu/legal-content/BG/ALL/?uri=CELEX%3A52021PC0206. последно посещение на 01.06.2024. [Reglament na Evropeyskia parlament i na Saveta za opredelyane na harmonizirani pravila otnosno izkustve­nia intelekt (Zakonodatelen akt za izkustvenia intelekt) i za izmenenie na nyakoi zakonoda­telni aktove na sayuza. https://eur-lex.europa.eu/legal-content/BG/ALL/?uri= CELEX%3A52021PC0206. posledno poseshtenie na 01.06.2024.]

Blog OpenAI and Elon Musk. (2024). We are dedicated to the OpenAI mission and have pursued it every step of the way. (5 March 2024). https://openai.com/blog/openai-elon-musk. Retrieved on 02.06.2024.

Carsten, B. S., (2004).  Information, Ethics, and Computers: The Problem of Au­tonomous Moral Agents. Minds and Machines 14(1): 67–83. DOI: 10.1023/ B:MIND.0000005136.61217.93

Draft Ethics guidelines for trustworthy AI. https://digital-strategy.ec.europa.eu/en/ library/draft-ethics-guidelines-trustworthy-ai. Retrieved on 02.06. 2024.

Pursuing the Ethics of Аrtificial Intelligence in Healthcare. https://www.cedars-sinai.org/newsroom/pursuing-the-ethics-of-artificial-intelligence-in-healthcare/. Retrieved on 02.06.2024.

Stanford University Human-Centered Artificial Intelligence. Artificial Intelligence definitions. https://hai.stanford.edu/sites/default/files/2020-09/AI-Definitions-HAI.pdf. Retrieved on 02.06.2024.

 

Мария Илиева е докторант в Нов български университет, департамент „Медии и комуникации“. Темата на нейната дисертация е „Европейски политики и регулации в сферата на дигиталните комуникации“. Научни ѝ интереси са в областите: защитата на личните данни, авторското право и цифровата инфор­мация. Тя анализира как правните рамки и регулации в Европа влияят върху раз­витието на дигиталните комуникации и как те налагат нови предизвикателства пред законотворците в ЕС. Мария Илиева е практикуващ юрист с над десетго­дишен опит в сферата.

Ръкописът е изпратен на 12.06.2024 г.

Рецензиране от двама независими рецензенти: от 13.06.2024 до 14.07.2024 г.

Приемане за публикуване: 15.07.2024 г.

Manuscript was submitted: 12.06.2024.

Double Blind Peer Reviews: from 13.06.2024 till 14.07.2024.

Accepted: 15.07.2024.

Брой 60 на сп. „Реторика и комуникации“ (юли 2024 г.) се издава с финансовата помощ на Фонд научни изследвания, договор № КП-06-НП5/65 от 08 декември 2023 г.

Issue 60 of the Rhetoric and Communications Journal (July 2024) is published with the financial support of the Scientific Research Fund, Contract No. KP-06-NP5/65 of December 08, 2023.