Za nami ostatni odcinek negocjacji trójstronnych w sprawie unijnego rozporządzenia o sztucznej inteligencji. W dokumencie znalazły się obowiązkowe oceny ryzyka dla systemów należących do kategorii wysokiego ryzyka, prawo do skargi na działanie systemów AI i podwyższone standardy dla modeli podstawowych, o które walczyły organizacje społeczne. Szczegóły przyjętych rozwiązań poznamy dopiero za około miesiąc, kiedy opublikowana zostanie oficjalna wersja AI Act.
Przedstawiciele Parlamentu, Komisji Europejskiej i Rady Unii Europejskiej wypracowali konsensus po 36-godzinnym maratonie negocjacyjnym. O efekt pytamy Katarzynę Szymielewicz, prezeskę Fundacji Panoptykon, która w ramach koalicji europejskich organizacji społecznych zabiegała o prawa ludzi w tworzonej regulacji.
„Nie jest dobrze, ale na pewno mogło być gorzej. Ochrona praw ludzi w ostatecznej wersji aktu jest słabsza niż to, co proponował Parlament Europejski w czerwcu, ale jest dużo lepsza niż w projekcie, który wyszedł z Komisji Europejskiej” – ocenia Szymielewicz.
Od kwietnia 2021 r., kiedy Komisja Europejska ogłosiła swój projekt regulacji, organizacje społeczne w całej Europie walczyły o wydłużenie listy systemów zakazanych, doprecyzowanie kryteriów decydujących o tym, jaki system trafi do kategorii wysokiego ryzyka, a także realne obowiązki dla firm i instytucji wdrażających takie systemy.
„Najbardziej kontrowersyjne z punktu widzenia organizacji społecznych jest rozwodnienie zakazów, które miały chronić Europejczyków i Europejki przed systemami, które potrafią ustalać tożsamość człowieka na podstawie zdjęcia jego twarzy albo rozpoznawać przeżywane w danym momencie emocje. Takie systemy mogą był łatwo użyte przeciwko ludziom, np. przez niekontrolowane w sposób demokratyczny służby” – wyjaśnia Szymielewicz. „Na szczęście ostał się przynajmniej zakaz scoringu społecznego”.
Organizacje chciały też wprowadzenia konkretnych mechanizmów chroniących ludzi w zetknięciu z systemami sztucznej inteligencji. Szymielewicz: „Według przecieków w ostatecznym tekście AI Act znalazło się prawo do indywidualnej skargi na źle działający albo dyskryminujący system. Będziemy mieć też możliwość zbiorowego dochodzenia praw. To ważne, bo mówimy o systemach, których działanie dotyka wielu osób. A więc kiedy popełniają błędy – również wiele osób na tym cierpi”.
Najtrudniejsze w negocjacjach okazały się zagadnienia związane z regulacją modeli podstawowych, takich jak GPT, Bard, Anthropic czy Gemini. Ostatecznie regulacja obejmie także ich twórców i dostawców. Nałożone na nich obowiązki, w tym m.in. zarządzanie ryzykiem, udostępnianie dokumentacji technicznej partnerom, przejrzystość, jakość i zgodność z prawem baz danych treningowych, będą minimalne dla niewielkich modeli, a większe dla liderów rynku takich jak Microsoft czy OpenAI.
Duże emocje wzbudziły też obowiązki firm i instytucji wdrażających systemy z kategorii wysokiego ryzyka. „Ostatecznie w AI Act – przynajmniej według przecieków – znalazł się obowiązek przeprowadzania oceny wpływu na prawa człowieka dla każdego takiego systemu przed jego wdrożeniem. W ten sposób Unia Europejska chce zapobiegać szkodom, jakie może powodować źle zaprojektowana albo źle wykorzystana sztuczna inteligencja, a nie czekać aż mleko się wyleje” – wyjaśnia Szymielewicz.
Z bardziej szczegółowym komentarzem Panoptykon wstrzymuje się do momentu, kiedy zostanie opublikowana ostateczna treść rozporządzenia o AI – co powinno nastąpić w ciągu kilku tygodni.
Źródło: Fundacja Panoptykon