Unia Europejska mówi "stop". Poważne zagrożenia związane z rozwojem sztucznej inteligencji

Od 1 sierpnia w Unii Europejskiej weszły regulacje – pierwsze w świecie – dotyczące sztucznej inteligencji i jej pozycji w kontaktach z ludźmi. Pracami nad unijnym prawem przyglądali się wszyscy prawodawcy świata, przede wszystkim Amerykanie, Japończycy i bardziej rozwinięte kraje arabskie. AI Act, jak nazywa się zbiór dokumentów i przepisów EU, w ciągu dwóch lat ma być implementowany w systemach prawnych krajów członkowskich, przy czym wdrożenie to musi się odbyć jeden do jednego. Unijni prawnicy nie pozostawili miejsca na interpretację przepisów.
AI Unia Europejska mówi
AI / Mike MacKenzie Flickr Creative Commons

Jednak, choć nowe prawo jest dobre, co przyznają wszyscy bez wyjątku prawnicy oceniający europejski AI Act, nie oznacza to, że znikną zagrożenia związane z SI. Chiny, Rosja i Korea Północna mają wobec nowej technologii zupełnie inne plany, co jest największą słabością europejskich rozwiązań. Sztuczna inteligencja z Kremla czy Pekinu może być przygotowana dokładnie na to, czego zachodni świat chce zabronić swojej SI. 

Oszukać rozmówcę

Choć sztuczna inteligencja wydaje się technologią towarzyszącą nam ledwie od kilku lat, jej początki, z którymi mogliśmy się zetknąć w codziennych aktywnościach, sięgają lat 90. XX wieku, kiedy triumfy w komunikacji święciły zalążki serwisów społecznościowych, czyli komunikatory pozwalające na prywatne lub publiczne prowadzenie rozmów. Najpopularniejszy wówczas Internet Relay Chat, czyli popularny IRC, był komunikatorem pozwalającym na zakładanie grup dla ludzi o podobnych zainteresowaniach, języku czy nawet pochodzeniu. Dzisiaj to codzienność, z której dzięki profesjonalnym narzędziom chętnie korzystamy w pracy lub organizując rodzinne spotkania online, jednak 30 lat temu rzeczywistość wyglądała zupełnie inaczej.

Serwery IRC wymagały ciągłego pilnowania, bo przejęcie ich i odebranie właścicielom było pierwszym zadaniem każdego uczącego się hakera. Programiści szybko nauczyli się pisać boty, a nawet całe sieci botów – specjalnych programów pilnujących poszczególnych kanałów, które potrafiły umiejętnie reagować na próbę przejęcia, a co bardziej społeczne potrafiły nawet prowadzić rozmowy z użytkownikami kanałów. I nie zawsze chodziło o udzielanie porad czy dawanie odpowiedzi na pytania natury technicznej. Duża część botów potrafiła odpowiadać na pytania w taki sposób, że przeciętny użytkownik przez kilka chwil miał wrażenie, że po drugiej stronie ekranu siedzi ktoś jak najbardziej żywy, czasem nawet interesujący jako... człowiek. 

Trzęsienie ziemi w Pałacu Buckingham: William wypowiedział wojnę Harry'emu

Czytaj także: Wielka Brytania: Polak odparł atak sześciu napastników chcących go okraść

Czytaj także: Kiedy na Ziemię powrócą astronauci, którzy uktnęli na orbicie? Jest komunikat NASA

Dzień dobry. Tu Anna, jestem twoim chatbotem

Dzisiaj tzw. chatboty są codziennością i nawet najlepiej napisane w niedługiej konwersacji dają się złapać na sztuczności. Choć – to rzecz, która jeszcze kilka lat temu wydawała się pomysłem rodem z powieści SF – potrafimy już budować chatboty, które rozmawiają przez telefon, nierzadko przyjemnym głosem odpowiadając na nasze pytania, a nawet wymyślając abstrakcyjne historie. Ludzkość poszła znacznie dalej, bo potrafimy powołać do „życia” programy posiadające twarz, głos, a nawet wiarygodnie udające emocje. Jeżeli do tych cech dołożymy dostęp do całej wiedzy w internecie, szybko odkryjemy, że z ekranu monitora patrzy na nas ktoś, kto wie o nas wszystko, a więc potrafi nami łatwo manipulować. Co więcej, odczytuje nasze emocje i zapamiętuje, co sprawia nam przyjemność, a co nas napawa lękiem.

Te zgromadzone na nasz temat dane to łakomy kąsek nie tylko dla firm zajmujących się personalizacją reklam, ale przede wszystkim służb i administracji – dla nich takie narzędzia jeszcze dekadę temu były Świętym Graalem, który dzisiaj znalazł się w ich rękach, pozwalając na bezprecedensową kontrolę jednostek, a nawet całych społeczeństw. Nowe unijne prawo miało w założeniach – i ma w obecnej postaci – zapobiegać takim nadużyciom. Czy będzie skuteczne? To pokażą najbliższe dwa lata, które rządy państw unijnych dostały na wprowadzenie ich do krajowych systemów prawnych. 

AI Act dzieli stosowaną w Europie sztuczną inteligencję na cztery kategorie – niskiego, ograniczonego, wysokiego i niedopuszczalnego ryzyka. Pierwszą i drugą kategorię mają stanowić chatboty czy gry (oraz postaci w tych grach), które będą musiały spełniać dość ostre wymogi dotyczące przejrzystości. I nie chodzi wyłącznie o to, że użytkownik będzie zawsze wiedział, czy rozmawia z botem, czy może miał szczęście dodzwonić się do jak najbardziej żywego człowieka na infolinii. 

Zanim powiesz o sobie wszystko...

To również przygotowane przez SI wiadomości i serwisy informacyjne (coraz częściej odczytywane przez specjalnie napisane programy graficzne udające prezenterów), czy przygotowane przez SI umowy i regulaminy. W każdej z wymienionych kategorii konieczne będzie wyraźne zaznaczenie, że współpracuje z nami robot, oraz podanie informacji na temat tego, jakie o nas dane są zbierane oraz kto jest przechowuje i kto ma do nich dostęp. 

Podobne do RODO? Nie do końca, bo zakres danych, które już dzisiaj bezwiednie udostępniamy do analizy wykonywanej przez sztuczną inteligencję, jest zatrważający – wystarczy choćby sprawdzić, co w ramach zbadania jakości naszego snu rejestruje prosty smartwatch, czyli zegarek skomunikowany z telefonem komórkowym. Bo nad śledzeniem użytkownika nikt już się dzisiaj nie zastanawia. W końcu i tak wysyłamy pełną informację na ten temat, nosząc ze sobą telefony komórkowe.

Technologie wysokiego ryzyka to przede wszystkim systemy SI, które autonomicznie będą podejmowały decyzje dotyczące przyszłości konkretnego człowieka. Chodzi np. o systemy analizujące podania studentów o stypendia czy przyjęcie na studia lub porównujące CV podczas starania się o pracę. Takie rozwiązania będą dopuszczane na rynek UE pod warunkiem spełnienia surowych wymogów. I każde z narzędzi będzie oceniane pod kątem ryzyka jeszcze przed wprowadzeniem na unijny rynek. Decyzje podjęte przez AI nie będą ostateczne – zawsze i na każdym poziomie będzie je można zaskarżyć. 

Zakaz punktowania społecznego

Obszary SI wypełniające definicję niedopuszczalnego ryzyka to całość oprogramowania stanowiącego zagrożenia dla praw podstawowych użytkowników – w tym technologie monitorujące i szpiegujące ludzi czy wykorzystujące ich dane wrażliwe do przewidywania ich zachowań. Zabronione będzie też stosowanie tzw. systemu punktowania społecznego służącego do oceny obywateli na podstawie ich zachowań społecznych – podobne rozwiązanie znamy z książki i filmu „Raport mniejszości”, gdzie do więzienia trafiali ludzie, którzy dopiero mogli popełnić przestępstwo, a więc formalnie – niewinni.

Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy (do 7 proc.), albo odgórnie określona grzywna w zależności od tego, która kwota będzie wyższa. W przypadku naruszenia innych obowiązków – będzie to 3 proc. dochodu, zaś za podanie nieprawdziwych informacji – 1,5 proc. Małym i średnim przedsiębiorstwom oraz start-upom grozić będą raczej kary administracyjne. 

USA, Japonia oraz najbardziej rozwinięte kraje arabskie przy wprowadzaniu swoich rozwiązań prawnych będą wzorować się na unijnych zapisach. AI Act zwiększy bezpieczeństwo wykorzystania sztucznej inteligencji, nie zniweluje go jednak i już dziś wiadomo, że przepisy trzeba będzie na bieżąco uzupełniać i zmieniać.
 


 

POLECANE
43 lata temu w kopalni „Piast” miał miejsce najdłuższy podziemny strajk w powojennej historii górnictwa tylko u nas
43 lata temu w kopalni „Piast” miał miejsce najdłuższy podziemny strajk w powojennej historii górnictwa

43 lata temu w kopalni „Piast” w Tychach-Bieruniu Nowym miał miejsce najdłuższy podziemny strajk w powojennej historii górnictwa. Był na miarę naszych największych zrywów narodowych – można śmiało powiedzieć. Strajk przeciw Jaruzelskiemu i jego wojskowej juncie, która wypowiedziała wojnę narodowi.

Festiwal postpornografii: Projekt współfinansowany przez miasto stołeczne Warszawa gorące
Festiwal "postpornografii": "Projekt współfinansowany przez miasto stołeczne Warszawa"

Kilka miesięcy temu w Warszawie odbył się tzw. POST P_RN ART FEST, impreza podczas której pokazywano filmy, jak twierdzą organizatorzy "post" - pornograficzne. Co ciekawe na materiałach organizatorów widnieje adnotacja "projekt współfinansuje miasto stołeczne Warszawa".

Ziobro zapytany o Romanowskiego: To nie jest normalny kraj. Popieram jego działania gorące
Ziobro zapytany o Romanowskiego: To nie jest normalny kraj. Popieram jego działania

- To nie jest normalny kraj, w którym władza wykonawcza blokuje działanie organów sądów i to najważniejszych sądów w państwie. Pan minister podjął sam taką decyzję, ale w pełni ją rozumiem i popieram jego działania - skomentował ostatnie działania posła Marcina Romanowskiego były szef resortu sprawiedliwości Zbigniew Ziobro.

Powstanie kancelaria, która ma pomagać ofiarom bezprawia rządzących. Będziemy oferowali pełną poufność Wiadomości
Powstanie kancelaria, która ma pomagać ofiarom bezprawia rządzących. "Będziemy oferowali pełną poufność"

Posłowie PiS, Krzysztof Szczucki i Paweł Jabłoński, zakładają kancelarię prawną wspierającą ofiary bezprawia rządzących.

Ten młody Polak ma 16 lat. Kiedy miał 15 stworzył program rozpoznający emocje gorące
Ten młody Polak ma 16 lat. Kiedy miał 15 stworzył program rozpoznający emocje

Józef Mudrak ma 16 lat. Zbudował historię, która warta jest przed świętami chwili Waszej uwagi. Jest wyjątkowa.

Tragedia pod Warszawą. Nie żyje mężczyzna zaatakowany przez byka Wiadomości
Tragedia pod Warszawą. Nie żyje mężczyzna zaatakowany przez byka

Byk zaatakował 70-latka w miejscowości Rudnik (gm. Osieck). Niestety, mężczyzna nie przeżył ataku zwierzęcia.

Szymon Hołownia wygwizdany podczas obchodów rocznicy Powstania Wielkopolskiego Wiadomości
Szymon Hołownia wygwizdany podczas obchodów rocznicy Powstania Wielkopolskiego

Pamięć bohaterów powstania wielkopolskiego uczcili w piątek w Poznaniu uczestnicy głównych uroczystości z okazji 106. rocznicy wybuchu zrywu. Internauci zwrócili jednak uwagę na moment zaproszenia marszałka Sejmu na scenę: został wygwizdany przez uczestników obchodów.

Co dalej z TVN? Strach jest od dłuższego czasu. Ludzie się boją Wiadomości
Co dalej z TVN? "Strach jest od dłuższego czasu. Ludzie się boją"

Pracownicy TVN obawiają się przyszłości stacji - informuje serwis Wirtualne Media.

To koniec. Monika Olejnik: Chciałam się z wami pożegnać gorące
To koniec. Monika Olejnik: "Chciałam się z wami pożegnać"

Gwiazda TVN i TVN24 Monika Olejnik od lat pisała felieton w Gazecie Wyborczej. Na tym jednak koniec.

Kłopoty Lechii Gdańsk. Jest decyzja PZPN Wiadomości
Kłopoty Lechii Gdańsk. Jest decyzja PZPN

Komisja ds. Licencji Klubowych PZPN po analizie nadesłanych w ramach rozszerzonego nadzoru finansowego dokumentów stwierdziła, że grająca w ekstraklasie Lechia Gdańsk oraz pierwszoligowa Kotwica Kołobrzeg nie wywiązują się z nałożonych w ramach tego nadzoru obowiązków.

REKLAMA

Unia Europejska mówi "stop". Poważne zagrożenia związane z rozwojem sztucznej inteligencji

Od 1 sierpnia w Unii Europejskiej weszły regulacje – pierwsze w świecie – dotyczące sztucznej inteligencji i jej pozycji w kontaktach z ludźmi. Pracami nad unijnym prawem przyglądali się wszyscy prawodawcy świata, przede wszystkim Amerykanie, Japończycy i bardziej rozwinięte kraje arabskie. AI Act, jak nazywa się zbiór dokumentów i przepisów EU, w ciągu dwóch lat ma być implementowany w systemach prawnych krajów członkowskich, przy czym wdrożenie to musi się odbyć jeden do jednego. Unijni prawnicy nie pozostawili miejsca na interpretację przepisów.
AI Unia Europejska mówi
AI / Mike MacKenzie Flickr Creative Commons

Jednak, choć nowe prawo jest dobre, co przyznają wszyscy bez wyjątku prawnicy oceniający europejski AI Act, nie oznacza to, że znikną zagrożenia związane z SI. Chiny, Rosja i Korea Północna mają wobec nowej technologii zupełnie inne plany, co jest największą słabością europejskich rozwiązań. Sztuczna inteligencja z Kremla czy Pekinu może być przygotowana dokładnie na to, czego zachodni świat chce zabronić swojej SI. 

Oszukać rozmówcę

Choć sztuczna inteligencja wydaje się technologią towarzyszącą nam ledwie od kilku lat, jej początki, z którymi mogliśmy się zetknąć w codziennych aktywnościach, sięgają lat 90. XX wieku, kiedy triumfy w komunikacji święciły zalążki serwisów społecznościowych, czyli komunikatory pozwalające na prywatne lub publiczne prowadzenie rozmów. Najpopularniejszy wówczas Internet Relay Chat, czyli popularny IRC, był komunikatorem pozwalającym na zakładanie grup dla ludzi o podobnych zainteresowaniach, języku czy nawet pochodzeniu. Dzisiaj to codzienność, z której dzięki profesjonalnym narzędziom chętnie korzystamy w pracy lub organizując rodzinne spotkania online, jednak 30 lat temu rzeczywistość wyglądała zupełnie inaczej.

Serwery IRC wymagały ciągłego pilnowania, bo przejęcie ich i odebranie właścicielom było pierwszym zadaniem każdego uczącego się hakera. Programiści szybko nauczyli się pisać boty, a nawet całe sieci botów – specjalnych programów pilnujących poszczególnych kanałów, które potrafiły umiejętnie reagować na próbę przejęcia, a co bardziej społeczne potrafiły nawet prowadzić rozmowy z użytkownikami kanałów. I nie zawsze chodziło o udzielanie porad czy dawanie odpowiedzi na pytania natury technicznej. Duża część botów potrafiła odpowiadać na pytania w taki sposób, że przeciętny użytkownik przez kilka chwil miał wrażenie, że po drugiej stronie ekranu siedzi ktoś jak najbardziej żywy, czasem nawet interesujący jako... człowiek. 

Trzęsienie ziemi w Pałacu Buckingham: William wypowiedział wojnę Harry'emu

Czytaj także: Wielka Brytania: Polak odparł atak sześciu napastników chcących go okraść

Czytaj także: Kiedy na Ziemię powrócą astronauci, którzy uktnęli na orbicie? Jest komunikat NASA

Dzień dobry. Tu Anna, jestem twoim chatbotem

Dzisiaj tzw. chatboty są codziennością i nawet najlepiej napisane w niedługiej konwersacji dają się złapać na sztuczności. Choć – to rzecz, która jeszcze kilka lat temu wydawała się pomysłem rodem z powieści SF – potrafimy już budować chatboty, które rozmawiają przez telefon, nierzadko przyjemnym głosem odpowiadając na nasze pytania, a nawet wymyślając abstrakcyjne historie. Ludzkość poszła znacznie dalej, bo potrafimy powołać do „życia” programy posiadające twarz, głos, a nawet wiarygodnie udające emocje. Jeżeli do tych cech dołożymy dostęp do całej wiedzy w internecie, szybko odkryjemy, że z ekranu monitora patrzy na nas ktoś, kto wie o nas wszystko, a więc potrafi nami łatwo manipulować. Co więcej, odczytuje nasze emocje i zapamiętuje, co sprawia nam przyjemność, a co nas napawa lękiem.

Te zgromadzone na nasz temat dane to łakomy kąsek nie tylko dla firm zajmujących się personalizacją reklam, ale przede wszystkim służb i administracji – dla nich takie narzędzia jeszcze dekadę temu były Świętym Graalem, który dzisiaj znalazł się w ich rękach, pozwalając na bezprecedensową kontrolę jednostek, a nawet całych społeczeństw. Nowe unijne prawo miało w założeniach – i ma w obecnej postaci – zapobiegać takim nadużyciom. Czy będzie skuteczne? To pokażą najbliższe dwa lata, które rządy państw unijnych dostały na wprowadzenie ich do krajowych systemów prawnych. 

AI Act dzieli stosowaną w Europie sztuczną inteligencję na cztery kategorie – niskiego, ograniczonego, wysokiego i niedopuszczalnego ryzyka. Pierwszą i drugą kategorię mają stanowić chatboty czy gry (oraz postaci w tych grach), które będą musiały spełniać dość ostre wymogi dotyczące przejrzystości. I nie chodzi wyłącznie o to, że użytkownik będzie zawsze wiedział, czy rozmawia z botem, czy może miał szczęście dodzwonić się do jak najbardziej żywego człowieka na infolinii. 

Zanim powiesz o sobie wszystko...

To również przygotowane przez SI wiadomości i serwisy informacyjne (coraz częściej odczytywane przez specjalnie napisane programy graficzne udające prezenterów), czy przygotowane przez SI umowy i regulaminy. W każdej z wymienionych kategorii konieczne będzie wyraźne zaznaczenie, że współpracuje z nami robot, oraz podanie informacji na temat tego, jakie o nas dane są zbierane oraz kto jest przechowuje i kto ma do nich dostęp. 

Podobne do RODO? Nie do końca, bo zakres danych, które już dzisiaj bezwiednie udostępniamy do analizy wykonywanej przez sztuczną inteligencję, jest zatrważający – wystarczy choćby sprawdzić, co w ramach zbadania jakości naszego snu rejestruje prosty smartwatch, czyli zegarek skomunikowany z telefonem komórkowym. Bo nad śledzeniem użytkownika nikt już się dzisiaj nie zastanawia. W końcu i tak wysyłamy pełną informację na ten temat, nosząc ze sobą telefony komórkowe.

Technologie wysokiego ryzyka to przede wszystkim systemy SI, które autonomicznie będą podejmowały decyzje dotyczące przyszłości konkretnego człowieka. Chodzi np. o systemy analizujące podania studentów o stypendia czy przyjęcie na studia lub porównujące CV podczas starania się o pracę. Takie rozwiązania będą dopuszczane na rynek UE pod warunkiem spełnienia surowych wymogów. I każde z narzędzi będzie oceniane pod kątem ryzyka jeszcze przed wprowadzeniem na unijny rynek. Decyzje podjęte przez AI nie będą ostateczne – zawsze i na każdym poziomie będzie je można zaskarżyć. 

Zakaz punktowania społecznego

Obszary SI wypełniające definicję niedopuszczalnego ryzyka to całość oprogramowania stanowiącego zagrożenia dla praw podstawowych użytkowników – w tym technologie monitorujące i szpiegujące ludzi czy wykorzystujące ich dane wrażliwe do przewidywania ich zachowań. Zabronione będzie też stosowanie tzw. systemu punktowania społecznego służącego do oceny obywateli na podstawie ich zachowań społecznych – podobne rozwiązanie znamy z książki i filmu „Raport mniejszości”, gdzie do więzienia trafiali ludzie, którzy dopiero mogli popełnić przestępstwo, a więc formalnie – niewinni.

Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy (do 7 proc.), albo odgórnie określona grzywna w zależności od tego, która kwota będzie wyższa. W przypadku naruszenia innych obowiązków – będzie to 3 proc. dochodu, zaś za podanie nieprawdziwych informacji – 1,5 proc. Małym i średnim przedsiębiorstwom oraz start-upom grozić będą raczej kary administracyjne. 

USA, Japonia oraz najbardziej rozwinięte kraje arabskie przy wprowadzaniu swoich rozwiązań prawnych będą wzorować się na unijnych zapisach. AI Act zwiększy bezpieczeństwo wykorzystania sztucznej inteligencji, nie zniweluje go jednak i już dziś wiadomo, że przepisy trzeba będzie na bieżąco uzupełniać i zmieniać.
 



 

Polecane
Emerytury
Stażowe