18 krajów, w tym Polska, Stany Zjednoczone, Francja i Niemcy, zatwierdziło wytyczne dotyczące bezpieczeństwa AI. Wytyczne te mają na celu zapewnienie, że sztuczna inteligencja jest opracowywana i wykorzystywana w sposób bezpieczny i odpowiedzialny.
Główne założenia wytycznych
Wytyczne koncentrują się na następujących głównych obszarach bezpieczeństwa AI:
- Ochrona praw człowieka
- Ochrona prywatności i bezpieczeństwa danych
- Ochrona przed dyskryminacją
- Ochrona przed zmanipulowaniem
- Odpowiedzialnościa za rozwój i stosowanie AI
Ochrona praw człowieka
Wytyczne podkreślają, że AI powinna być opracowywana i wykorzystywana w sposób zgodny z prawami człowieka, w tym z prawem do prywatności, wolności wypowiedzi i wolności myśli. AI nie powinna być wykorzystywana do naruszania praw człowieka, takich jak dyskryminacja lub prześladowanie.
Ochrona prywatności i bezpieczeństwa danych
Wytyczne podkreślają, że AI powinna być opracowywana i wykorzystywana w sposób chroniący prywatność i bezpieczeństwo danych. Dane wykorzystywane do rozwoju i stosowania AI powinny być zbierane i przetwarzane w sposób zgodny z prawem i zasadami etyki.
Ochrona przed dyskryminacją
Wytyczne podkreślają, że AI powinna być opracowywana i wykorzystywana w sposób zapobiegający dyskryminacji. AI nie powinna być wykorzystywana do podejmowania decyzji, które dyskryminują osoby ze względu na ich rasę, pochodzenie etniczne, płeć, religię lub inne cechy.
Ochrona przed zmanipulowaniem
Wytyczne podkreślają, że AI powinna być opracowywana i wykorzystywana w sposób zapobiegający manipulacji. AI nie powinna być wykorzystywana do manipulowania ludźmi lub do wprowadzania ich w błąd.
Odpowiedzialnościa za rozwój i stosowanie AI
Wytyczne podkreślają, że osoby odpowiedzialne za rozwój i stosowanie AI powinny ponosić odpowiedzialność za skutki swojego działania. Osoby te powinny podejmować kroki w celu zapewnienia, że AI jest wykorzystywana w sposób bezpieczny i odpowiedzialny.
Wnioski
Wytyczne dotyczące bezpieczeństwa sztucznej inteligencji są ważnym krokiem w kierunku zapewnienia, aby AI była wykorzystywana w sposób bezpieczny i odpowiedzialny. Wytyczne te stanowią punkt odniesienia dla rozwoju i stosowania AI w 18 krajach, w tym w Polsce.
18 krajów popierających obejmuje Europę, region Azji i Pacyfiku, Afrykę i obie Ameryki. Oto pełna lista międzynarodowych sygnatariuszy:
Australia – Australijskie Centrum Bezpieczeństwa Cybernetycznego (ACSC) Australijskiej Dyrekcji ds. Sygnałów
Kanada – Kanadyjskie Centrum Bezpieczeństwa Cybernetycznego (CCCS)
Chile – CSIRT rządu Chile
Czechy – Czeska Krajowa Agencja ds. Bezpieczeństwa Cybernetyki i Informacji (NUKIB)
Estonia – Estoński Urząd ds. Systemu Informatycznego (RIA) i Narodowe Centrum Cyberbezpieczeństwa Estonii (NCSC-EE)
Francja – Francuska Agencja ds. Cyberbezpieczeństwa (ANSSI)
Niemcy – Niemiecki Federalny Urząd ds. Bezpieczeństwa Informacji (BSI)
Izrael – Izraelska Krajowa Dyrekcja ds. Cyberbezpieczeństwa (INCD)
Włochy – Włoska Krajowa Agencja ds. Cyberbezpieczeństwa (ACN)
Japonia – Japońskie Narodowe Centrum Gotowości na Incydenty i Strategii na rzecz Cyberbezpieczeństwa (NISC; Japoński Sekretariat ds. Polityki Nauki, Technologii i Innowacji, Biuro Rady Ministrów
Nowa Zelandia – Narodowe Centrum Bezpieczeństwa Cybernetycznego Nowej Zelandii
Nigeria – Krajowa Agencja Rozwoju Technologii Informacyjnych Nigerii (NITDA)
Norwegia – Norweskie Narodowe Centrum Cyberbezpieczeństwa (NCSC-NO)
Polska – NASK Państwowy Instytut Badawczy (NASK)
Republika Korei – Narodowa Służba Wywiadowcza Republiki Korei (NIS)
Singapur – Agencja Bezpieczeństwa Cybernetycznego Singapuru (CSA)
Wielka Brytania – Narodowe Centrum Cyberbezpieczeństwa (NCSC)
Stany Zjednoczone Ameryki – Agencja ds. Cyberbezpieczeństwa i Infrastruktury (CISA); Agencja Bezpieczeństwa Narodowego (NSA; Federalne Biuro Śledcze (FBI)