Dotyczą one w szczególności zabezpieczeń dotyczących sztucznej inteligencji ogólnego przeznaczenia oraz prawo konsumentów do składania skarg i otrzymywania merytorycznych wyjaśnień jeśli nabierzemy podejrzeń czy nasze prawa nie zostały naruszone na skutek użycia AI = Artificial Inteligenci = Sztuczna Inteligencja 😀 🧠

Czy wiesz, że AI ma już swoje europejskie regulacje?
Czy wiesz, że AI ma już swoje europejskie regulacje?

W założeniu Parlament Europejski zatwierdził akt w sprawie AI, który ma zapewniać bezpieczeństwo i przestrzeganie praw podstawowych, a jednocześnie wspierać innowacje. Rozporządzenie to zakazuje klasyfikacji punktowej obywateli i stosowania AI do manipulowania użytkownikami i wykorzystywania ich słabości.

Nowe przepisy zakazują zastosowań sztucznej inteligencji, które zagrażają prawom obywateli, w tym:
1️⃣ systemów kategoryzacji biometrycznej,
2️⃣ rozpoznawania emocji w miejscu pracy i instytucjach edukacyjnych,
3️⃣ klasyfikacji punktowej obywateli,
4️⃣ prognozowania przestępczości,
5️⃣ sztucznej inteligencji, która manipuluje zachowaniem ludzi lub wykorzystuje ich słabości.

Niemniej organy ścigania mogą wykorzystywać systemy identyfikacji biometrycznej tylko w określonym czasie i w określonym położeniu geograficznym. Muszą też posiadać specjalne zezwolenie sądowe lub administracyjne.

Szczególne obowiązki określono również dla tzw. systemów sztucznej inteligencji wysokiego ryzyka. Co to za systemy? Są to na przykład systemy infrastruktury krytycznej, edukacja i szkolenie zawodowe, zatrudnienie, podstawowe usługi prywatne i publiczne. Takie systemy z założenia muszą oceniać i ograniczać ryzyko oraz prowadzić rejestry zdarzeń. Muszą też być przejrzyste i dokładne oraz podlegać kontroli przez człowieka.

Dzięki rozporządzeniu obywatele będą mieć prawo do składania skarg dotyczących systemów sztucznej inteligencji i otrzymywania merytorycznych wyjaśnień.

Najbardziej zaawansowane modele sztucznej inteligencji ogólnego przeznaczenia, które mogą stwarzać ryzyko systemowe, będą musiały spełniać dodatkowe wymagania (ocena modeli, zarządzanie ryzykiem systemowym, obowiązkowe zgłaszanie incydentów). Ponadto należy wyraźnie oznaczać nieautentyczne lub zmanipulowane obrazy, treści audio lub wideo.