Wyszukaj w serwisie
biznes finanse technologie praca handel Eko Energetyka polska i świat
BiznesINFO.pl > Technologie > Rozwój sztucznej inteligencji będzie kontrolowany? Jest globalna deklaracja
Paula Drechsler
Paula Drechsler 04.11.2023 10:46

Rozwój sztucznej inteligencji będzie kontrolowany? Jest globalna deklaracja

komputer
stocksnap/pixabay

Powstał specjalny dokument dotyczący sztucznej inteligencji. Świadectwo nazwano “Deklaracją z Bletchley”. Nad omawianą w piśmie kwestią bezpieczeństwa dotyczącego algorytmów zgodziło się współpracować 28 krajów.

Szczyt Bezpieczeństwa SI w Wielkiej Brytanii

Podczas inauguracyjnego Szczytu Bezpieczeństwa SI zorganizowanego przez rząd Wielkiej Brytanii w Bletchley Payk został ujawniony dokument, który nazwano “Deklaracją z Bletchley”. Uznaje on problematyczność i złożoność wykorzystywania sztucznej inteligencji oraz podkreśla konieczność współpracy międzynarodowej w celu zniwelowania możliwego ryzyka.

- Sztuczna inteligencja (SI) stwarza ogromne możliwości na skalę globalną: ma potencjał przekształcania i poprawy ludzkiego dobrostanu, pokoju i dobrobytu. Aby to sobie uświadomić, potwierdzamy, że dla dobra wszystkich sztuczną inteligencję należy projektować, rozwijać, wdrażać i wykorzystywać w sposób bezpieczny, skupiony na człowieku, godny zaufania i odpowiedzialny - brzmi komunikat na stronach rządowych Wielkiej Brytanii.

W jakim kierunku ma zmierzać sposób korzystania z SI

Dokument powstał po to, aby podkreślić, że należy korzystać z możliwości algorytmów w sposób “skoncentrowany na człowieku, godny zaufania i odpowiedzialny”. Jest to pierwsze tego rodzaju globalne zobowiązanie, które dotyczy rozwoju tej technologii.

- Wiele zagrożeń wynikających ze sztucznej inteligencji ma z natury charakter internacjonalny, dlatego najlepiej przeciwdziałać im w drodze współpracy międzynarodowej. Postanawiamy współpracować, aby zapewnić skupioną na człowieku, godną zaufania i odpowiedzialną sztuczną inteligencję, która jest bezpieczna i wspiera dobro wszystkich za pośrednictwem istniejących forów międzynarodowych i innych odpowiednich inicjatyw. Po to, aby promować współpracę mającą na celu zajęcie się szerokim zakresem zagrożeń stwarzanych przez sztuczną inteligencję - czytamy w dokumencie na stronach rządowych.

Deklaracja uwzględnia różnice w kwestiach prawnych, jakie panują w różnych krajach, które zdecydowały się na członkostwo.

- Uznajemy przy tym, że kraje powinny rozważyć znaczenie proinnowacyjnego oraz proporcjonalnego podejścia do zarządzania i regulacji, które maksymalizuje korzyści i uwzględnia ryzyko związane ze sztuczną inteligencją. Może to obejmować dokonanie, w stosownych przypadkach, klasyfikacji i kategoryzacji ryzyka na podstawie uwarunkowań krajowych i zastosowania odpowiednich ram prawnych - brzmi opublikowany 1 listopada 2023 r. fragment deklaracji zaprezentowanej podczas AI Safety Summit.

Szeroki program działania

Nad zapewnieniem bezpieczeństwa w kwestii wykorzystywania sztucznej inteligencji zgodziło się współpracować 28 krajów, w tym Chiny, Izrael, Stany Zjednoczone, Ukraina, oraz Wielka Brytania.

- W kontekście naszej współpracy oraz w celu informowania o działaniach na poziomie krajowym i międzynarodowym, nasz program przeciwdziałania ryzyku granicznemu związanemu z SI będzie skupiał się na: 

  • identyfikowaniu zagrożeń dla bezpieczeństwa związanych ze sztuczną inteligencją, będących przedmiotem wspólnego zainteresowania, w tym budowanie wspólnego naukowego i opartego na dowodach zrozumienia tych zagrożeń. Utrzymywanie tego pojmowania w miarę ciągłego zwiększania się możliwości, w kontekście szerszego globalnego podejścia do zidentyfikowania wpływu sztucznej inteligencji na nasze społeczeństwa. 
  • budowaniu odpowiednich polityk opartych na ryzyku we wszystkich naszych krajach, aby zapewnić bezpieczeństwo w świetle takich zagrożeń. Współpraca w stosownych przypadkach, przy jednoczesnym uznaniu, że nasze podejścia mogą się różnić w zależności od okoliczności krajowych i obowiązujących ram prawnych. Obejmuje to, oprócz większej przejrzystości podmiotów prywatnych rozwijających pionierskie możliwości w zakresie sztucznej inteligencji, odpowiednie wskaźniki oceny, narzędzia do testowania bezpieczeństwa oraz rozwój odpowiednich zdolności sektora publicznego i badań naukowych - stanowi dokument.

Źródło: Business Insider, gov.uk

Powiązane
haker
Quiz sprawdzi, czy jesteś bezpieczny w internecie. Jeśli nie zdobędziesz 7/10 pkt., możesz mieć kłopoty