Kategorie
aktualności publikacje

AI ACT- czym jest, kogo dotyczy, od kiedy obowiązuje i co wprowadza?

AI Act, czyli Artificial Intelligence Act, to pierwsze rozporządzenie Unii Europejskiej, które wprowadza jednolite zasady korzystania ze sztucznej inteligencji w całej UE. Jako unijne rozporządzenie obowiązuje ono bezpośrednio we wszystkich państwach członkowskich, nie trzeba go dodatkowo wdrażać do prawa krajowego. Mimo to w Polsce trwają prace nad ustawą o systemach sztucznej inteligencji, która ma doprecyzować niektóre kwestie. Na ten moment projekt polskiej ustawy jest jeszcze na etapie prac rządowych.

Rozporządzenie to wdrażane jest stopniowo:

-od 2025 r. obowiązują przepisy w zakresie dotyczącym praktyk zakazanych (rozdział I i II), kar,  poufności oraz określenia organu nadzoru rynku i organu notyfikującego

od sierpnia 2026 r. zacznie obowiązywać znaczna większość przepisów AI Act, głównie są to regulacje dotyczące grup wysokiego ryzyka

-natomiast od sierpnia 2027 r. wejdą w życie przepisy dotyczące grup wysokiego ryzyka podlegających osobnym normom

Kogo dotyczy AI ACT?

Rozporządzenie rozdziela podmioty korzystające z systemów sztucznej inteligencji w szczególności na dostawców oraz użytkowników. Dostawcami są podmioty, które opracowują systemy sztucznej inteligencji i  wprowadzają je do obrotu, natomiast użytkownikami są podmioty, wykorzystujące te systemy przede wszystkim w ramach swojej działalności.

W najprostszym ujęciu regulacja znajduje zastosowanie do wszystkich podmiotów stosujących systemy sztucznej inteligencji na terytorium UE, a także do podmiotów działających poza UE, jeżeli skutki ich działań występują na obszarze Unii Europejskiej.

AI Act wyróżnia cztery kategorie ryzyka i związane z nimi poszczególne obowiązki:

  1. Systemy minimalnego ryzyka: są to np. filtry spamu, systemy autokorekty oraz inne systemy które są nieszkodliwe – ta grupa ryzyka nie jest objęta szczególnymi restrykcjami i obowiązkami.
  2. Systemy o ograniczonym ryzyku: takie jak np. chatboty czy wirtualni asystenci na stronach internetowych. Systemy te muszą spełniać głównie obowiązek przejrzystości i obowiązek informacyjny, aby zapobiec przed wprowadzeniem człowieka w błąd.
  3. Systemy wysokiego ryzyka: to największa grupa wskazana w załączniku III do AI Act. Obejmuje ona takie rozwiązania AI, które mogą wpływać na bezpieczeństwo ludzi, na ich prawa i sytuację życiową.

Przykłady takich systemów to między innymi:

  • AI używane w ochronie zdrowia np. wspierające lekarzy w diagnozowaniu chorób
  • Systemy AI używane w sądach lub administracji publicznej do wspomagania decyzji
  • Algorytmy wykorzystywane w rekrutacji, np. do selekcji CV kandydatów
  • Systemy używane w sektorze finansowym np. oceniające zdolność kredytową
  • AI używane w edukacji np. monitorujące egzaminy lub oceniające uczniów i studentów

Z tego powodu, że systemy te mogą mieć poważne konsekwencje dla ludzi, AI Act nakłada na nie szereg dodatkowych obowiązków.

Do obowiązków tej kategorii ryzyka należy przede wszystkim: rejestrowanie zdarzeń niepożądanych, przejrzystość działania, zapewnienie nadzoru człowieka, wdrożenie adekwatnych środków technicznych i organizacyjnych, działanie zgodnie z instrukcją dostawcy AI, odpowiednie przeszkolenie pracowników w przypadku pracodawców, zapewnienie odpowiedniego poziomu cyberbezpieczeństwa.

  1. Systemy zakazane: obejmują szeroki katalog technologii zakazanych na terenie UE, są to między innymi:
  • Systemy które wykorzystują manipulację behawioralną czyli na przykład: aplikacje, które analizują emocje użytkownika i tak dobierają komunikaty, żeby skłonić konsumenta do konkretnej decyzji zakupowej
  • System „punktowania obywateli”, czyli social scoring rozpowszechniony w Chinach, który ma na celu ocenianie obywatela na podstawie danych z jego różnych obszarów życia
  • AI wykorzystujące słabości danych grup osób- ze względu na wiek czy niepełnosprawność są to przykładowo zabawki z wgranym systemem sztucznej inteligencji, które wykorzystują słabości dzieci, aby nakłaniać je do określonych zachowań
  • Systemy mające przewidywać potencjalnych przestępców
    algorytmy, które na podstawie profilowania osoby przewidują możliwość popełnienia przez nią przestępstwa

Istnieją jednak wyjątki od systemów zakazanych w ściśle określonych sytuacjach, na przykład w związku z zwalczaniem terroryzmu czy poszukiwaniem osób zaginionych.

Podsumowanie:

AI Act wprowadza wiele zmian w technologii sztucznej inteligencji, które mają na celu zapewnienie bezpieczeństwa tego systemu. Mimo, to wdrażanie systemu sztuczniej inteligencji zwłaszcza dla grup wysokiego ryzyka wiąże się z szeregiem procedur, wieloma nowymi obowiązkami i koniecznością zapewnienia właściwej dokumentacji, co wymaga dużej reorganizacji.

 

 

 

Kategorie
publikacje

Czy Tarcza Antykryzysowa nas ochroni?

Daniel Bieszczad o tym, co zadecyduje o skuteczności Tarczy Antykryzysowej:

https://klubjagiellonski.pl/2020/04/08/czy-tarcza-antykryzysowa-nas-ochroni1/#

Kategorie
publikacje

Ekspert o dyrektywie UE: chroni kredytobiorców przed ryzykiem kursowym.

Konieczność ochrony kredytobiorców przed ryzykiem kursowym i obiektywne, czyli niezależne od banków wskaźniki wyliczania rat kredytowych przy kredytach ze zmiennym oprocentowaniem, przewiduje unijna dyrektywa, którą ma wdrożyć Polska – mówi PAP mecenas Daniel Bieszczad.

Chodzi o dyrektywę Parlamentu Europejskiego i Rady nr 214/17/UE w sprawie konsumenckich umów o kredyt związanych z nieruchomościami mieszkalnymi i zmieniającą dyrektywy 2008/48/WE i 2013/36/UE oraz rozporządzenie (UE) nr 1093/2010 z 4 lutego 2014 r. „Trudno zrozumieć, dlaczego przez blisko dwa lata Polska nie implementowała tej dyrektywy, która powinna być wdrożona do polskiego systemu prawnego właśnie w okresie dwuletnim” – powiedział PAP mec. Daniel Bieszczad z kancelarii Bieszczad Górecki Adwokaci.

„Dyrektywa ta zawiera unormowania przewidujące konieczność ochrony kredytobiorców przed ryzykiem kursowym, i to przez cały okres kredytowania. Między innymi wskazuje, aby państwo członkowskie dawało kredytobiorcy możliwość przewalutowania kredytu w trakcie trwania umowy kredytowej. Nadto dyrektywa przewiduje obiektywne wskaźniki wyliczania rat kredytowych przy kredytach ze zmiennym oprocentowaniem. Obiektywne, to znaczy niezależne od banków” – wyjaśnił mec. Bieszczad.

Jak dodał, „ten akt prawny ogranicza też dowolność akwizycji i reklamy kredytów walutowych, tak aby uchronić konsumentów przed wprowadzeniem w błąd”. „Dyrektywa przewiduje także nałożenie na banki bardzo precyzyjnych obowiązków informacyjnych przed zawarciem umowy kredytowej, w tym obowiązek symulacyjnego wyliczenia wysokości raty kredytu, którą konsument będzie musiał płacić w razie wahań kursów. Aktualnie stosowane w Polsce obowiązki informacyjne banków w zakresie ryzyka walutowego są znacznie mniej restrykcyjne” – zaznaczył.

Jednocześnie wyraził opinię, że należy krytycznie ocenić przyjętą w Polsce metodę pracy nad restrukturyzacją kredytów walutowych. „Taka restrukturyzacja powinna być wdrożona w jednym akcie prawnym z jednoczesnym wdrożeniem w.w. dyrektywy unijnej. Ta ostatnia z kolei czeka na implementację w polskim porządku prawnym od 4 lutego 2014 r.” – zauważył mec. Bieszczad.

Prawnik przypomniał prace nad tzw. ustawą dot. frankowiczów, która – jak mówił – skrytykowana przez banki, rząd, NBP i KNF, po poprawkach Senatu, utknęła w Sejmie. Jak mówił, ustawa dot. frankowiczów i tak nie wychodziła naprzeciw oczekiwaniom, by ograniczyć wysokość zadłużenia z tytułu kredytu do wartości zabezpieczonej nieruchomości. Pozostawia w rękach banku instrumenty kształtowania uprawnień wynikających z ustawy, na przykład przy wyliczaniu wskaźnika LtV. „Dlatego też problemy, którym omawiana ustawa wychodzi naprzeciw, i tak będzie trzeba uregulować całościowo na przyszłość” – ocenił Daniel Bieszczad.

„Pojawiły się w polskiej judykaturze pojedyncze wyroki, które uznawały, że bezprawne są klauzule umowne, wedle których bank pozostawiał sobie wyłączne prawo do określania kursu, po którym dokonywano przewalutowania rat kredytowych. Jednak skala problemu (takie klauzule posiada większość umów kredytowych) jest tak duża, że należy go rozwiązać na poziomie ustawodawczym, bo pojedyncze wyroki sądów wiążą tylko w konkretnej sprawie i nie mają zastosowania do innych umów kredytowych” – wskazał adwokat.

 

Kategorie
publikacje

Adwokat Daniel Bieszczad w serwisie lex.pl na temat „upadłości konsumenckiej”.

http://www.lex.pl/czytaj/-/artykul/dluznicy-nie-korzystaja-z-upadlosci-bo-boja-sie-utraty-majatku

Kategorie
publikacje

„Outsorcing usług prawnych w praktyce”. Artykuł adw. Daniela Bieszczada w Merkuryuszu Towarzystw Biznesowych.

„Outsorcing usług prawnych w praktyce”. Artykuł adw. Daniela Bieszczada w Merkuryuszu Towarzystw Biznesowych.

Artykuł 2:
Outsorcing usług prawnych w praktyce, D. Bieszczad, Merkuryusz Towarzystw Biznesowych, nr 5, kwiecień 2015 r.

Kategorie
publikacje

Adwokat Daniel Bieszczad dla Polskiej Agencji Prasowej na temat nowelizacji prawa ubezpieczeniowego i stanu rynku ubezpieczeń w Polsce.

http://www.lex.pl/czytaj/-/artykul/adwokat-klientom-bardziej-od-przepisow-szkodzi-praktyka-ubezpieczycieli?doAsUserId=BUsMRL3qpQ0%3D%2Fzus%2FWielkopolskie%2F1%2Ffgsp%2FWielkopolskie%2F1

Kategorie
publikacje

Kancelaria Adwokacka Bieszczad Górecki adwokci s.c. wyróżniona przez dziennik Rzeczpospolita jako jedna z wiodących młodych kancelarii w cyklu wywiadów „Ciągle warto być prawnikiem”.

http://archiwum.rp.pl/artykul/1265955-Adwokat–jak-consigliere.html

Kategorie
publikacje

Adwokat Daniel Bieszczad w serwisie bankier.pl na temat prawnych aspektów zarządzania nieruchomościami.

http://www.bankier.pl/wiadomosc/Kompleksowe-zarzadzanie-nieruchomosciami-2353626.html

Kompleksowe zarządzanie nieruchomościami, Agata Skocz, www.bankier.pl, 09.06.2011 r.