Unia Europejska mówi "stop". Poważne zagrożenia związane z rozwojem sztucznej inteligencji

Od 1 sierpnia w Unii Europejskiej weszły regulacje – pierwsze w świecie – dotyczące sztucznej inteligencji i jej pozycji w kontaktach z ludźmi. Pracami nad unijnym prawem przyglądali się wszyscy prawodawcy świata, przede wszystkim Amerykanie, Japończycy i bardziej rozwinięte kraje arabskie. AI Act, jak nazywa się zbiór dokumentów i przepisów EU, w ciągu dwóch lat ma być implementowany w systemach prawnych krajów członkowskich, przy czym wdrożenie to musi się odbyć jeden do jednego. Unijni prawnicy nie pozostawili miejsca na interpretację przepisów.
AI
AI / Mike MacKenzie Flickr Creative Commons

Jednak, choć nowe prawo jest dobre, co przyznają wszyscy bez wyjątku prawnicy oceniający europejski AI Act, nie oznacza to, że znikną zagrożenia związane z SI. Chiny, Rosja i Korea Północna mają wobec nowej technologii zupełnie inne plany, co jest największą słabością europejskich rozwiązań. Sztuczna inteligencja z Kremla czy Pekinu może być przygotowana dokładnie na to, czego zachodni świat chce zabronić swojej SI. 

Oszukać rozmówcę

Choć sztuczna inteligencja wydaje się technologią towarzyszącą nam ledwie od kilku lat, jej początki, z którymi mogliśmy się zetknąć w codziennych aktywnościach, sięgają lat 90. XX wieku, kiedy triumfy w komunikacji święciły zalążki serwisów społecznościowych, czyli komunikatory pozwalające na prywatne lub publiczne prowadzenie rozmów. Najpopularniejszy wówczas Internet Relay Chat, czyli popularny IRC, był komunikatorem pozwalającym na zakładanie grup dla ludzi o podobnych zainteresowaniach, języku czy nawet pochodzeniu. Dzisiaj to codzienność, z której dzięki profesjonalnym narzędziom chętnie korzystamy w pracy lub organizując rodzinne spotkania online, jednak 30 lat temu rzeczywistość wyglądała zupełnie inaczej.

Serwery IRC wymagały ciągłego pilnowania, bo przejęcie ich i odebranie właścicielom było pierwszym zadaniem każdego uczącego się hakera. Programiści szybko nauczyli się pisać boty, a nawet całe sieci botów – specjalnych programów pilnujących poszczególnych kanałów, które potrafiły umiejętnie reagować na próbę przejęcia, a co bardziej społeczne potrafiły nawet prowadzić rozmowy z użytkownikami kanałów. I nie zawsze chodziło o udzielanie porad czy dawanie odpowiedzi na pytania natury technicznej. Duża część botów potrafiła odpowiadać na pytania w taki sposób, że przeciętny użytkownik przez kilka chwil miał wrażenie, że po drugiej stronie ekranu siedzi ktoś jak najbardziej żywy, czasem nawet interesujący jako... człowiek. 

Trzęsienie ziemi w Pałacu Buckingham: William wypowiedział wojnę Harry'emu

Czytaj także: Wielka Brytania: Polak odparł atak sześciu napastników chcących go okraść

Czytaj także: Kiedy na Ziemię powrócą astronauci, którzy uktnęli na orbicie? Jest komunikat NASA

Dzień dobry. Tu Anna, jestem twoim chatbotem

Dzisiaj tzw. chatboty są codziennością i nawet najlepiej napisane w niedługiej konwersacji dają się złapać na sztuczności. Choć – to rzecz, która jeszcze kilka lat temu wydawała się pomysłem rodem z powieści SF – potrafimy już budować chatboty, które rozmawiają przez telefon, nierzadko przyjemnym głosem odpowiadając na nasze pytania, a nawet wymyślając abstrakcyjne historie. Ludzkość poszła znacznie dalej, bo potrafimy powołać do „życia” programy posiadające twarz, głos, a nawet wiarygodnie udające emocje. Jeżeli do tych cech dołożymy dostęp do całej wiedzy w internecie, szybko odkryjemy, że z ekranu monitora patrzy na nas ktoś, kto wie o nas wszystko, a więc potrafi nami łatwo manipulować. Co więcej, odczytuje nasze emocje i zapamiętuje, co sprawia nam przyjemność, a co nas napawa lękiem.

Te zgromadzone na nasz temat dane to łakomy kąsek nie tylko dla firm zajmujących się personalizacją reklam, ale przede wszystkim służb i administracji – dla nich takie narzędzia jeszcze dekadę temu były Świętym Graalem, który dzisiaj znalazł się w ich rękach, pozwalając na bezprecedensową kontrolę jednostek, a nawet całych społeczeństw. Nowe unijne prawo miało w założeniach – i ma w obecnej postaci – zapobiegać takim nadużyciom. Czy będzie skuteczne? To pokażą najbliższe dwa lata, które rządy państw unijnych dostały na wprowadzenie ich do krajowych systemów prawnych. 

AI Act dzieli stosowaną w Europie sztuczną inteligencję na cztery kategorie – niskiego, ograniczonego, wysokiego i niedopuszczalnego ryzyka. Pierwszą i drugą kategorię mają stanowić chatboty czy gry (oraz postaci w tych grach), które będą musiały spełniać dość ostre wymogi dotyczące przejrzystości. I nie chodzi wyłącznie o to, że użytkownik będzie zawsze wiedział, czy rozmawia z botem, czy może miał szczęście dodzwonić się do jak najbardziej żywego człowieka na infolinii. 

Zanim powiesz o sobie wszystko...

To również przygotowane przez SI wiadomości i serwisy informacyjne (coraz częściej odczytywane przez specjalnie napisane programy graficzne udające prezenterów), czy przygotowane przez SI umowy i regulaminy. W każdej z wymienionych kategorii konieczne będzie wyraźne zaznaczenie, że współpracuje z nami robot, oraz podanie informacji na temat tego, jakie o nas dane są zbierane oraz kto jest przechowuje i kto ma do nich dostęp. 

Podobne do RODO? Nie do końca, bo zakres danych, które już dzisiaj bezwiednie udostępniamy do analizy wykonywanej przez sztuczną inteligencję, jest zatrważający – wystarczy choćby sprawdzić, co w ramach zbadania jakości naszego snu rejestruje prosty smartwatch, czyli zegarek skomunikowany z telefonem komórkowym. Bo nad śledzeniem użytkownika nikt już się dzisiaj nie zastanawia. W końcu i tak wysyłamy pełną informację na ten temat, nosząc ze sobą telefony komórkowe.

Technologie wysokiego ryzyka to przede wszystkim systemy SI, które autonomicznie będą podejmowały decyzje dotyczące przyszłości konkretnego człowieka. Chodzi np. o systemy analizujące podania studentów o stypendia czy przyjęcie na studia lub porównujące CV podczas starania się o pracę. Takie rozwiązania będą dopuszczane na rynek UE pod warunkiem spełnienia surowych wymogów. I każde z narzędzi będzie oceniane pod kątem ryzyka jeszcze przed wprowadzeniem na unijny rynek. Decyzje podjęte przez AI nie będą ostateczne – zawsze i na każdym poziomie będzie je można zaskarżyć. 

Zakaz punktowania społecznego

Obszary SI wypełniające definicję niedopuszczalnego ryzyka to całość oprogramowania stanowiącego zagrożenia dla praw podstawowych użytkowników – w tym technologie monitorujące i szpiegujące ludzi czy wykorzystujące ich dane wrażliwe do przewidywania ich zachowań. Zabronione będzie też stosowanie tzw. systemu punktowania społecznego służącego do oceny obywateli na podstawie ich zachowań społecznych – podobne rozwiązanie znamy z książki i filmu „Raport mniejszości”, gdzie do więzienia trafiali ludzie, którzy dopiero mogli popełnić przestępstwo, a więc formalnie – niewinni.

Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy (do 7 proc.), albo odgórnie określona grzywna w zależności od tego, która kwota będzie wyższa. W przypadku naruszenia innych obowiązków – będzie to 3 proc. dochodu, zaś za podanie nieprawdziwych informacji – 1,5 proc. Małym i średnim przedsiębiorstwom oraz start-upom grozić będą raczej kary administracyjne. 

USA, Japonia oraz najbardziej rozwinięte kraje arabskie przy wprowadzaniu swoich rozwiązań prawnych będą wzorować się na unijnych zapisach. AI Act zwiększy bezpieczeństwo wykorzystania sztucznej inteligencji, nie zniweluje go jednak i już dziś wiadomo, że przepisy trzeba będzie na bieżąco uzupełniać i zmieniać.
 


 

POLECANE
Jest decyzja sądu. Zakaz wobec Roberta Bąkiewicza zniesiony z ostatniej chwili
Jest decyzja sądu. Zakaz wobec Roberta Bąkiewicza zniesiony

"Sąd zniósł prokuratorski zakaz zbliżania się do granicy z Niemcami, wprowadzony w sierpniu ub.r. wobec Roberta Bąkiewicza" – informuje na platformie X Dominik Dzierżanowski, współpracownik Roberta Bąkiewicza.

Zbyt wysokie stężenie”. UOKiK ostrzega kierowców Wiadomości
"Zbyt wysokie stężenie”. UOKiK ostrzega kierowców

Siedem z 50 przebadanych odmrażaczy i zimowych płynów do spryskiwaczy miało za wysokie stężenie metanolu - poinformował w piątek UOKiK. Dopuszczalne stężenie wynosi 0,6 proc.; przebadane środki miały ponad 3 proc. Większość firm wycofała kwestionowany towar ze sprzedaży.

Ostrzeżenie w woj. zachodniopomorskim. Służby monitorują teren jednej z gmin Wiadomości
Ostrzeżenie w woj. zachodniopomorskim. Służby monitorują teren jednej z gmin

Mieszkańcy gminy Będzino w województwie zachodniopomorskim zostali objęci pilnym ostrzeżeniem. Lokalny samorząd poinformował o możliwej obecności dużego dzikiego kota na terenie jednego z okolicznych kompleksów leśnych i zaapelował o unikanie lasu do odwołania.

Nieoficjalnie: Rozpad Polski 2050. Po wyborach na przewodniczącego klub czeka fala odejść z ostatniej chwili
Nieoficjalnie: Rozpad Polski 2050. Po wyborach na przewodniczącego klub czeka fala odejść

Wszystko wskazuje na to, że najbliższe dni mogą przesądzić o przyszłości Polski 2050. Z nieoficjalnych informacji docierających z partyjnych kuluarów wynika, że bez względu na wynik sobotniego głosowania o przywództwo, ugrupowanie może czekać fala odejść, a nawet faktyczne rozbicie klubu parlamentarnego.

Zełenski zaproszony do Moskwy. Jest odpowiedź prezydenta Ukrainy z ostatniej chwili
Zełenski zaproszony do Moskwy. Jest odpowiedź prezydenta Ukrainy

Kolejne spotkanie delegacji Ukrainy, Stanów Zjednoczonych i Rosji wstępnie ma się odbyć w niedzielę, 1 lutego, w Abu Zabi, jednak jego data i miejsce mogą ulec zmianie – poinformował prezydent Ukrainy Wołodymyr Zełenski. Jednocześnie wykluczył możliwość przybycia do Moskwy na rozmowy z Władimirem Putinem.

Ważny komunikat dla mieszkańców Katowic z ostatniej chwili
Ważny komunikat dla mieszkańców Katowic

Mieszkańcy Katowice, którzy szukają stabilnego najmu, mają czas do 20 lutego, by złożyć wniosek o mieszkanie w nowej inwestycji Katowickiego TBS. Nabór dotyczy ponad setki lokali powstających przy ul. Kosmicznej w Giszowcu i już od pierwszych dni cieszy się dużym zainteresowaniem.

Nie ma drugiego takiego w Europie. Polska podpisała umowę na system antydronowy San z ostatniej chwili
"Nie ma drugiego takiego w Europie". Polska podpisała umowę na system antydronowy San

W piątek podpisana została umowa na nowy system antydronowy dla polskiego wojska. System San zbudują firmy z Polskiej Grupy Zbrojeniowej wraz z prywatnym APS i z norweskim Kongsbergiem.

Będzie niebezpiecznie. IMGW wydał komunikat  z ostatniej chwili
Będzie niebezpiecznie. IMGW wydał komunikat 

Instytut Meteorologii i Gospodarki Wodnej wydał w piątek ostrzeżenia I stopnia przed marznącymi opadami deszczu powodującymi gołoledź dla sześciu województw. Na północnym wschodzie w dalszym ciągu obowiązują alerty przed silnym mrozem.

Złe wieści dla Waldemara Żurka. Tak Polacy oceniają wymiar sprawiedliwości po zmianie władzy [SONDAŻ] z ostatniej chwili
Złe wieści dla Waldemara Żurka. Tak Polacy oceniają wymiar sprawiedliwości po zmianie władzy [SONDAŻ]

Czy wg Polaków po zmianie władzy wymiar sprawiedliwości działa lepiej niż za rządów Zjednoczonej Prawicy? Najnowszy sondaż SW Research wykonany na zlecenie Onetu przynosi złe wieści dla obecnego kierownictwa resortu sprawiedliwości.

Wyłączenia prądu. Ważny komunikat dla mieszkańców Wielkopolski z ostatniej chwili
Wyłączenia prądu. Ważny komunikat dla mieszkańców Wielkopolski

Operator Enea opublikował harmonogram planowanych przerw w dostawie energii elektrycznej na najbliższe dni. Utrudnienia obejmą kilka rejonów dystrybucyjnych w woj. wielkopolskim. Sprawdziliśmy, gdzie, kiedy i na jakich ulicach zabraknie prądu.

REKLAMA

Unia Europejska mówi "stop". Poważne zagrożenia związane z rozwojem sztucznej inteligencji

Od 1 sierpnia w Unii Europejskiej weszły regulacje – pierwsze w świecie – dotyczące sztucznej inteligencji i jej pozycji w kontaktach z ludźmi. Pracami nad unijnym prawem przyglądali się wszyscy prawodawcy świata, przede wszystkim Amerykanie, Japończycy i bardziej rozwinięte kraje arabskie. AI Act, jak nazywa się zbiór dokumentów i przepisów EU, w ciągu dwóch lat ma być implementowany w systemach prawnych krajów członkowskich, przy czym wdrożenie to musi się odbyć jeden do jednego. Unijni prawnicy nie pozostawili miejsca na interpretację przepisów.
AI
AI / Mike MacKenzie Flickr Creative Commons

Jednak, choć nowe prawo jest dobre, co przyznają wszyscy bez wyjątku prawnicy oceniający europejski AI Act, nie oznacza to, że znikną zagrożenia związane z SI. Chiny, Rosja i Korea Północna mają wobec nowej technologii zupełnie inne plany, co jest największą słabością europejskich rozwiązań. Sztuczna inteligencja z Kremla czy Pekinu może być przygotowana dokładnie na to, czego zachodni świat chce zabronić swojej SI. 

Oszukać rozmówcę

Choć sztuczna inteligencja wydaje się technologią towarzyszącą nam ledwie od kilku lat, jej początki, z którymi mogliśmy się zetknąć w codziennych aktywnościach, sięgają lat 90. XX wieku, kiedy triumfy w komunikacji święciły zalążki serwisów społecznościowych, czyli komunikatory pozwalające na prywatne lub publiczne prowadzenie rozmów. Najpopularniejszy wówczas Internet Relay Chat, czyli popularny IRC, był komunikatorem pozwalającym na zakładanie grup dla ludzi o podobnych zainteresowaniach, języku czy nawet pochodzeniu. Dzisiaj to codzienność, z której dzięki profesjonalnym narzędziom chętnie korzystamy w pracy lub organizując rodzinne spotkania online, jednak 30 lat temu rzeczywistość wyglądała zupełnie inaczej.

Serwery IRC wymagały ciągłego pilnowania, bo przejęcie ich i odebranie właścicielom było pierwszym zadaniem każdego uczącego się hakera. Programiści szybko nauczyli się pisać boty, a nawet całe sieci botów – specjalnych programów pilnujących poszczególnych kanałów, które potrafiły umiejętnie reagować na próbę przejęcia, a co bardziej społeczne potrafiły nawet prowadzić rozmowy z użytkownikami kanałów. I nie zawsze chodziło o udzielanie porad czy dawanie odpowiedzi na pytania natury technicznej. Duża część botów potrafiła odpowiadać na pytania w taki sposób, że przeciętny użytkownik przez kilka chwil miał wrażenie, że po drugiej stronie ekranu siedzi ktoś jak najbardziej żywy, czasem nawet interesujący jako... człowiek. 

Trzęsienie ziemi w Pałacu Buckingham: William wypowiedział wojnę Harry'emu

Czytaj także: Wielka Brytania: Polak odparł atak sześciu napastników chcących go okraść

Czytaj także: Kiedy na Ziemię powrócą astronauci, którzy uktnęli na orbicie? Jest komunikat NASA

Dzień dobry. Tu Anna, jestem twoim chatbotem

Dzisiaj tzw. chatboty są codziennością i nawet najlepiej napisane w niedługiej konwersacji dają się złapać na sztuczności. Choć – to rzecz, która jeszcze kilka lat temu wydawała się pomysłem rodem z powieści SF – potrafimy już budować chatboty, które rozmawiają przez telefon, nierzadko przyjemnym głosem odpowiadając na nasze pytania, a nawet wymyślając abstrakcyjne historie. Ludzkość poszła znacznie dalej, bo potrafimy powołać do „życia” programy posiadające twarz, głos, a nawet wiarygodnie udające emocje. Jeżeli do tych cech dołożymy dostęp do całej wiedzy w internecie, szybko odkryjemy, że z ekranu monitora patrzy na nas ktoś, kto wie o nas wszystko, a więc potrafi nami łatwo manipulować. Co więcej, odczytuje nasze emocje i zapamiętuje, co sprawia nam przyjemność, a co nas napawa lękiem.

Te zgromadzone na nasz temat dane to łakomy kąsek nie tylko dla firm zajmujących się personalizacją reklam, ale przede wszystkim służb i administracji – dla nich takie narzędzia jeszcze dekadę temu były Świętym Graalem, który dzisiaj znalazł się w ich rękach, pozwalając na bezprecedensową kontrolę jednostek, a nawet całych społeczeństw. Nowe unijne prawo miało w założeniach – i ma w obecnej postaci – zapobiegać takim nadużyciom. Czy będzie skuteczne? To pokażą najbliższe dwa lata, które rządy państw unijnych dostały na wprowadzenie ich do krajowych systemów prawnych. 

AI Act dzieli stosowaną w Europie sztuczną inteligencję na cztery kategorie – niskiego, ograniczonego, wysokiego i niedopuszczalnego ryzyka. Pierwszą i drugą kategorię mają stanowić chatboty czy gry (oraz postaci w tych grach), które będą musiały spełniać dość ostre wymogi dotyczące przejrzystości. I nie chodzi wyłącznie o to, że użytkownik będzie zawsze wiedział, czy rozmawia z botem, czy może miał szczęście dodzwonić się do jak najbardziej żywego człowieka na infolinii. 

Zanim powiesz o sobie wszystko...

To również przygotowane przez SI wiadomości i serwisy informacyjne (coraz częściej odczytywane przez specjalnie napisane programy graficzne udające prezenterów), czy przygotowane przez SI umowy i regulaminy. W każdej z wymienionych kategorii konieczne będzie wyraźne zaznaczenie, że współpracuje z nami robot, oraz podanie informacji na temat tego, jakie o nas dane są zbierane oraz kto jest przechowuje i kto ma do nich dostęp. 

Podobne do RODO? Nie do końca, bo zakres danych, które już dzisiaj bezwiednie udostępniamy do analizy wykonywanej przez sztuczną inteligencję, jest zatrważający – wystarczy choćby sprawdzić, co w ramach zbadania jakości naszego snu rejestruje prosty smartwatch, czyli zegarek skomunikowany z telefonem komórkowym. Bo nad śledzeniem użytkownika nikt już się dzisiaj nie zastanawia. W końcu i tak wysyłamy pełną informację na ten temat, nosząc ze sobą telefony komórkowe.

Technologie wysokiego ryzyka to przede wszystkim systemy SI, które autonomicznie będą podejmowały decyzje dotyczące przyszłości konkretnego człowieka. Chodzi np. o systemy analizujące podania studentów o stypendia czy przyjęcie na studia lub porównujące CV podczas starania się o pracę. Takie rozwiązania będą dopuszczane na rynek UE pod warunkiem spełnienia surowych wymogów. I każde z narzędzi będzie oceniane pod kątem ryzyka jeszcze przed wprowadzeniem na unijny rynek. Decyzje podjęte przez AI nie będą ostateczne – zawsze i na każdym poziomie będzie je można zaskarżyć. 

Zakaz punktowania społecznego

Obszary SI wypełniające definicję niedopuszczalnego ryzyka to całość oprogramowania stanowiącego zagrożenia dla praw podstawowych użytkowników – w tym technologie monitorujące i szpiegujące ludzi czy wykorzystujące ich dane wrażliwe do przewidywania ich zachowań. Zabronione będzie też stosowanie tzw. systemu punktowania społecznego służącego do oceny obywateli na podstawie ich zachowań społecznych – podobne rozwiązanie znamy z książki i filmu „Raport mniejszości”, gdzie do więzienia trafiali ludzie, którzy dopiero mogli popełnić przestępstwo, a więc formalnie – niewinni.

Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy (do 7 proc.), albo odgórnie określona grzywna w zależności od tego, która kwota będzie wyższa. W przypadku naruszenia innych obowiązków – będzie to 3 proc. dochodu, zaś za podanie nieprawdziwych informacji – 1,5 proc. Małym i średnim przedsiębiorstwom oraz start-upom grozić będą raczej kary administracyjne. 

USA, Japonia oraz najbardziej rozwinięte kraje arabskie przy wprowadzaniu swoich rozwiązań prawnych będą wzorować się na unijnych zapisach. AI Act zwiększy bezpieczeństwo wykorzystania sztucznej inteligencji, nie zniweluje go jednak i już dziś wiadomo, że przepisy trzeba będzie na bieżąco uzupełniać i zmieniać.
 



 

Polecane