Aktualne problemy stosowania prawa nowych technologii w kontekście najnowszych regulacji!
W numerze 4/2024 polecamy:
Aleksandra Auleytner, Marcin Jan Stępień, „The Compliance of Artificial Intelligence Systems with Fundamental Rights in the Context of the Artificial Intelligence Act and EU Documents on the Ethical Aspects of AI"
Artificial intelligence technology must respect fundamental rights – at least, this is the requirement set out in the Artificial Intelligence Act and other European Union instruments that precede the adoption of this regulation. However, this requirement appears far from precise. It may give rise to practical challenges and leave a significant degree of legal uncertainty. On the other hand, it seems to be a justified and necessary premise in the context of ensuring trustworthy artificial intelligence technology. Against this background, it is necessary to define what constitutes AI that complies with fundamental rights in the context of earlier EU documents addressing the ethical aspects of AI.
Tomasz Zalewski, „Wokół definicji systemu AI w unijnym rozporządzeniu w sprawie sztucznej inteligencji"
Artykuł koncentruje się na analizie definicji systemu sztucznej inteligencji (AI) zawartej w unijnym rozporządzeniu o sztucznej inteligencji. Definicja ta jest kluczowym elementem rozporządzenia, ponieważ rzeczywisty zakres stosowania rozporządzenia zależy od sposobu rozumienia tej definicji. W artykule przedstawiono argumenty, że przyjęta definicja systemu AI jest niejasna i sprzeczna z zasadami tworzenia definicji legalnych, co prowadzi do możliwości jej interpretacji na wiele wzajemnie wykluczających się sposobów, a w szczególności do powstawania istotnych trudności w rozróżnieniu pomiędzy systemami AI objętymi przepisami rozporządzenia a innymi systemami informatycznymi.
Mariusz Krzysztofek, „Ryzyko kolizji między Aktem w sprawie sztucznej inteligencji i RODO w zakresie systemów AI służących do rozpoznawania emocji osób fizycznych na podstawie danych biometrycznych"
Tematem artykułu jest ryzyko kolizji Aktu w sprawie sztucznej inteligencji z RODO w jednym aspekcie: przetwarzania danych biometrycznych w celu rozpoznawania emocji. Wnioskowanie na temat emocji następuje w „systemach rozpoznawania emocji", będących systemami AI, na podstawie danych biometrycznych. Skoro „system rozpoznawania emocji" służy do wyciągania wniosków na temat emocji osób fizycznych na podstawie danych biometrycznych tych osób, to wykorzystuje mechanizm profilowania. Należy więc poddać analizie zasady przetwarzania danych biometrycznych w obu aktach, a także profilowania, bo identyfikacja lub wnioskowanie emocji osób fizycznych na podstawie danych biometrycznych jest profilowaniem. Należy zwrócić uwagę na kwestię wrażliwego charakteru danych biometrycznych będących podstawą wnioskowania o emocjach (a raczej wrażliwego w odbiorze wielu osób i w opinii opublikowanej przez Parlament Europejski, ale nie w samej definicji, lub ściślej – zgodnie z definicją wrażliwego tylko gdy te dane biometryczne jednoznacznie identyfikują osobę fizyczną).
Akt w sprawie sztucznej inteligencji zakazuje systemów AI służących do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem zastosowań ze względów medycznych lub bezpieczeństwa. Jednak poza miejscami pracy i instytucjami edukacyjnymi nie zostało to uznane za nieakceptowalne ryzyko i zakazaną praktykę w zakresie AI. Systemy AI wykorzystujące biometrię przy rozpoznawaniu emocji są natomiast systemami wysokiego ryzyka, a z tym poziomem ryzyka wiążą się określone obowiązki, ale nie zakaz ich stosowania.
Jakub Rzymowski, Dominik Spałek, Maciej Gawroński, „Zakazy z art. 5 AI Act jako zakazy pozorne, czyli jak nie wolno, ale się chce, to można"
Akt w sprawie sztucznej inteligencji reguluje m.in. zakazy związane ze sztuczną inteligencją, poczynając od zakazu podejmowania pewnych praktyk z wykorzystaniem sztucznej inteligencji, o których mowa w art. 5 AI Act. Zakazy te uporządkowano w ośmiu kategoriach. Siedem kategorii zakazów dotyczy wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI, które posiadają cechy wskazane w kolejnych literach przepisu. Ósma kategoria to zakaz wykorzystywania systemów o cechach wskazanych w przepisie.
Przepis ustanawia wiele zakazów. Celem artykułu jest wskazanie dwóch problemów, które powodują, że są to w większości zakazy pozorne. Zakazy pozornie obowiązują, jednak z uwagi na ich warunkowość oraz nieostre fragmenty przepisów, zakazy te nie obowiązują, obowiązują w skrajnie wąskim zakresie lub obowiązują teoretycznie. Nie sposób wskazać od jakiego momentu zaczynają działać. Ponadto zakazy związane są ściśle z AI-systemami, co dzięki modyfikacji cech systemów, których zakazy dotyczą, pozwala nie tylko na niestosowanie zakazów, ale na niestosowanie całego AI Act do systemów sprzętowych, które nie są AI-systemami w rozumieniu art. 3 pkt 1 AI Act.
Anna Wilk, „Cyfrowe zmartwychwstanie". Sztuczna inteligencja a ochrona wizerunku osób zmarłych"
Artykuł porusza problematykę ochrony prawa do wizerunku w kontekście zjawiska „cyfrowego wskrzeszania zmarłych" z wykorzystaniem sztucznej inteligencji. Tego typu treści generowane są często bez zgody najbliższych zmarłego, a ponadto mogą naruszać jego dobre imię poprzez osadzenie jego postaci w kontekście niezwiązanym z jego działalnością lub wręcz uwłaczającym mu. Oprócz kwestii regulacyjnych, takich jak obowiązek odpowiedniego oznaczania treści generowanych przez sztuczną inteligencję, przemyślenia wymaga dotychczasowa regulacja ochrony wizerunku, bowiem okazuje się ona niedostosowana do dynamicznego rozwoju technologii i nie zapewnia należytej ochrony wizerunku i dobrego imienia osób zmarłych, jak i należytej równowagi pomiędzy ochroną tych dóbr a społecznie uzasadnionym interesem, np. informacyjnym lub edukacyjnym.
Anna Sokołowska-Ławniczak, Kaja Seń-Majewska, „Znaki towarowe w świecie sztucznej inteligencji"
Wykorzystywanie sztucznej inteligencji może prowadzić do naruszania praw ochronnych do znaków towarowych, wzrostu liczby podrobionych produktów, czy zmniejszenia znaczenia znaków towarowych w modelach zakupowych opartych na AI, a także rodzić problemy związane z pociągnięciem do odpowiedzialności za naruszenia właścicieli marketplace bazujących na sztucznej inteligencji.
Natalia Biernat, Mikołaj Deptalski, Zbigniew Pinkalski, „AI-washing. Charakterystyka zjawiska oraz analiza możliwości jego kwalifikacji jako czynu nieuczciwej konkurencji i niedozwolonej praktyki rynkowej"
Artykuł koncentruje się na nowym w praktyce zjawisku społecznym i prawnym jakim jest AI-washing. Tekst ten w swoim założeniu ma trzy zasadnicze cele. Pierwszym z nich jest scharakteryzowanie zjawiska społecznego, jakim jest AI-washing. Drugim – przedstawienie funkcjonalnej dla dyskursu prawnego definicji AI-washing. Trzecim natomiast – przedstawienie propozycji ujęcia zdefiniowanego AI-washing w istniejących ramach prawnych.
Anna Jelińska-Sabatowska, „Prawa konsumentów w erze AI: jak sztuczna inteligencja zmienia relacje w sferze B2C"
AI zmienia krajobraz e-commerce, oferując innowacyjne rozwiązania, które mają na celu ułatwienie procesów zakupowych i optymalizację działalności przedsiębiorców. Jednak jej rozwój implikuje również potrzebę zwiększenia ochrony konsumentów i zapewnienia przejrzystości stosowania AI w handlu internetowym. Odpowiedzią na te wyzwania jest m.in. AI Act przyjęty przez Unię Europejską, który nakłada obowiązki w zakresie transparentności, zakazując niektórych praktyk manipulacyjnych i wprowadzając wymóg kontroli systemów wysokiego ryzyka.
Piotr Grzybowski, Procesowe aspekty dochodzenia ochrony praw autorskich w kontekście rosnącego wykorzystywania narzędzi AI w procesie twórczym"
W sprawach o naruszenie praw autorskich, wytaczanych przez uprawnionych przeciwko podmiotom korzystającym z twórczości, dotyczących np. grafik, muzyki, czy programów komputerowych, problematyka AI będzie pojawiać się coraz częściej. Celem artykułu jest zbadanie wpływu rosnącego wykorzystywania narzędzi AI w procesie twórczym na sytuację procesową stron w sprawach o ochronę praw autorskich. Przeanalizowano zarówno sytuację, w której powód domaga się ochrony dzieła powstałego przy udziale narzędzia AI, jak również gdy przedmiotem ochrony w sprawie jest „tradycyjne" dzieło, faktycznie powstałe bez zaangażowania AI. W artykule rozważono, czy kontekst rosnącego wykorzystywania narzędzi AI w procesie twórczym utrudni powodowi dochodzenie ochrony i czy rozszerzy wachlarz argumentów dostępnych pozwanemu. Artykuł odpowiada m.in. na pytanie, czy na powodzie ciąży obowiązek dowodzenia „ludzkiego" autorstwa dzieła i w jaki sposób można ten fakt udowodnić.
Antonina Chłopecka, „Odpowiedzialność kontraktowa w przypadku wykorzystania sztucznej inteligencji do zawierania umów"
„W naszych czasach nowe idee, nowe wynalazki następują po sobie w coraz szybszem tempie i tworzą nowe, nieprzewidywane stosunki. Niepodobna wymagać od prawodawcy, aby każdą taką nowość w lot chwytał i normował, choćby już dla tego, że w pierwszej chwili zazwyczaj ani doniosłości jej, ani rozciągłości ocenić nie może, a ujęcie takich nowych objawów w karby paragrafów ustawy bez poprzednich doświadczeń mogłoby niejednę myśl nową i pożyteczną w samym zarodzie skrzywić lub przytłumić (...) Dziś za pośrednictwem maszyny automatycznej własność przechodzi z majątku do majątku, odbywają się kupna i przedaże rozmaitych towarów: czekoladek, cygar, zapałek, pachnideł, kwiatów, – bywają dawane widowiska (kinematograf, fotografie), – bywają wykonywane utwory muzyczne; – automaty służą do mierzenia siły, spełniają rolę wyszynków, garkuchni, restauracyi, gdzie za pieniądz wsunięty w otwór przy rządu nakarmić i napoić się można, nawet ubezpieczają życie, a któż przewidzieć zdoła, jakie interesa będą w przyszłości automatom przeznaczone do spełniania?"
Partnerem merytorycznym Kwartalnika jest Stowarzyszenie Prawa Nowych Technologii.
Rada programowa:
prof. Aleksander Chłopecki (Uniwersytet Warszawski), prof. Kinga Flaga-Gieruszyńska (Uniwersytet Szczeciński), prof. Jacek Gołaczyński (Uniwersytet Wrocławski), prof. Katarzyna Grzybczyk (Uniwersytet Śląski), prof. Paweł Księżak (Uniwersytet Łódzki), prof. Wojciech Machała (Uniwersytet Warszawski), prof. Andrzej Matlak (Uniwersytet Jagielloński), prof. Monika Namysłowska (Uniwersytet Łódzki), dr hab. Adrian Niewęgłowski (Uniwersytet Marii Curie-Skłodowskiej), prof. Stanisław Piątek (Uniwersytet Warszawski), prof. Paweł Podrecki (Polska Akademia Nauk), prof. Przemysław Polański (Akademia Leona Koźmińskiego), prof. Maciej Rogalski (Uczelnia Łazarskiego), prof. Rafał Sikorski (Uniwersytet im. Adama Mickiewicza), prof. Grzegorz Sibiga (Polska Akademia Nauk), prof. Marek Świerczyński (Uniwersytet Kardynała Stefana Wyszyńskiego).
Kolegium redakcyjne:
adw. Xawery Konarski (Traple Konarski Podrecki i Wspólnicy), r.pr. dr Aleksandra Auleytner (Domański Zakrzewski Palinka), r.pr. Witold Chomiczewski (Lubasz i Wspólnicy), adw. Maciej Kubiak (SKP Ślusarek Kubiak Pieczyk), r.pr. Mikołaj Sowiński (Sołtysiński Kawecki Szlęzak), r.pr. Artur Piechocki (APLaw), red. Piotr Grabarczyk (Wydawnictwo C.H.Beck).