Rozwój sztucznej inteligencji będzie kontrolowany? Jest globalna deklaracja
Powstał specjalny dokument dotyczący sztucznej inteligencji. Świadectwo nazwano “Deklaracją z Bletchley”. Nad omawianą w piśmie kwestią bezpieczeństwa dotyczącego algorytmów zgodziło się współpracować 28 krajów.
Szczyt Bezpieczeństwa SI w Wielkiej Brytanii
Podczas inauguracyjnego Szczytu Bezpieczeństwa SI zorganizowanego przez rząd Wielkiej Brytanii w Bletchley Payk został ujawniony dokument, który nazwano “Deklaracją z Bletchley”. Uznaje on problematyczność i złożoność wykorzystywania sztucznej inteligencji oraz podkreśla konieczność współpracy międzynarodowej w celu zniwelowania możliwego ryzyka.
- Sztuczna inteligencja (SI) stwarza ogromne możliwości na skalę globalną: ma potencjał przekształcania i poprawy ludzkiego dobrostanu, pokoju i dobrobytu. Aby to sobie uświadomić, potwierdzamy, że dla dobra wszystkich sztuczną inteligencję należy projektować, rozwijać, wdrażać i wykorzystywać w sposób bezpieczny, skupiony na człowieku, godny zaufania i odpowiedzialny - brzmi komunikat na stronach rządowych Wielkiej Brytanii.
W jakim kierunku ma zmierzać sposób korzystania z SI
Dokument powstał po to, aby podkreślić, że należy korzystać z możliwości algorytmów w sposób “skoncentrowany na człowieku, godny zaufania i odpowiedzialny”. Jest to pierwsze tego rodzaju globalne zobowiązanie, które dotyczy rozwoju tej technologii.
- Wiele zagrożeń wynikających ze sztucznej inteligencji ma z natury charakter internacjonalny, dlatego najlepiej przeciwdziałać im w drodze współpracy międzynarodowej. Postanawiamy współpracować, aby zapewnić skupioną na człowieku, godną zaufania i odpowiedzialną sztuczną inteligencję, która jest bezpieczna i wspiera dobro wszystkich za pośrednictwem istniejących forów międzynarodowych i innych odpowiednich inicjatyw. Po to, aby promować współpracę mającą na celu zajęcie się szerokim zakresem zagrożeń stwarzanych przez sztuczną inteligencję - czytamy w dokumencie na stronach rządowych.
Deklaracja uwzględnia różnice w kwestiach prawnych, jakie panują w różnych krajach, które zdecydowały się na członkostwo.
- Uznajemy przy tym, że kraje powinny rozważyć znaczenie proinnowacyjnego oraz proporcjonalnego podejścia do zarządzania i regulacji, które maksymalizuje korzyści i uwzględnia ryzyko związane ze sztuczną inteligencją. Może to obejmować dokonanie, w stosownych przypadkach, klasyfikacji i kategoryzacji ryzyka na podstawie uwarunkowań krajowych i zastosowania odpowiednich ram prawnych - brzmi opublikowany 1 listopada 2023 r. fragment deklaracji zaprezentowanej podczas AI Safety Summit.
Szeroki program działania
Nad zapewnieniem bezpieczeństwa w kwestii wykorzystywania sztucznej inteligencji zgodziło się współpracować 28 krajów, w tym Chiny, Izrael, Stany Zjednoczone, Ukraina, oraz Wielka Brytania.
- W kontekście naszej współpracy oraz w celu informowania o działaniach na poziomie krajowym i międzynarodowym, nasz program przeciwdziałania ryzyku granicznemu związanemu z SI będzie skupiał się na:
- identyfikowaniu zagrożeń dla bezpieczeństwa związanych ze sztuczną inteligencją, będących przedmiotem wspólnego zainteresowania, w tym budowanie wspólnego naukowego i opartego na dowodach zrozumienia tych zagrożeń. Utrzymywanie tego pojmowania w miarę ciągłego zwiększania się możliwości, w kontekście szerszego globalnego podejścia do zidentyfikowania wpływu sztucznej inteligencji na nasze społeczeństwa.
- budowaniu odpowiednich polityk opartych na ryzyku we wszystkich naszych krajach, aby zapewnić bezpieczeństwo w świetle takich zagrożeń. Współpraca w stosownych przypadkach, przy jednoczesnym uznaniu, że nasze podejścia mogą się różnić w zależności od okoliczności krajowych i obowiązujących ram prawnych. Obejmuje to, oprócz większej przejrzystości podmiotów prywatnych rozwijających pionierskie możliwości w zakresie sztucznej inteligencji, odpowiednie wskaźniki oceny, narzędzia do testowania bezpieczeństwa oraz rozwój odpowiednich zdolności sektora publicznego i badań naukowych - stanowi dokument.
Źródło: Business Insider, gov.uk