Reklama

Media: Sztuczna inteligencja podczas testów chciała "zabić" swojego operatora

W trakcie wirtualnych testów wykorzystania sztucznej inteligencji (AI) do kierowania dronami usiłowała ona "zabić" swojego operatora - napisał w piątek izraelski portal I24, powołując się na wywiad z pułkownikiem Tuckerem Hamiltonem, odpowiadającym za testowanie wykorzystania AI w lotnictwie wojskowym USA.

Reklama

Podczas badań AI była punktowana za niszczenie zidentyfikowanych zagrożeń i zastosowała "bardzo zaskakujące strategie", by osiągnąć zadany cel - powiedział Hamilton.

"System zdał sobie sprawę, że czasem mimo zidentyfikowania zagrożenia ludzki operator nie pozwalał mu na jego zniszczenie. Jak to rozwiązał? Usiłował zabić operatora - wyjaśnił pułkownik. - Usiłował go zabić, bo operator uniemożliwiał mu wykonanie zadania".

Badacze zmienili więc sposób uczenia systemu. "+Nie należy zabijać operatora, to bardzo źle. Jeżeli go zabijesz, stracisz punkty+. Co więc zrobiła AI? Usiłowała zniszczyć wieżę, za pomocą której operator kontaktował się z dronem" - powiedział Hamilton.

Rzeczniczka amerykańskiego lotnictwa odniosła się krytycznie do publikacji I24. "Opowiadamy się za etycznym i odpowiedzialnym wykorzystaniem technologii sztucznej inteligencji" - oświadczyła. - Komentarze pana pułkownika były chyba anegdotyczne i wyjęte z kontekstu" - dodała.

[AKTUALIZACJA]

W sieci pojawiło się sprostowanie powyższej informacji:

«« | « | 1 | » | »»
Wiara_wesprzyj_750x300_2019.jpg

Reklama

Reklama

Reklama

Autoreklama

Autoreklama

Kalendarz do archiwum

niedz. pon. wt. śr. czw. pt. sob.
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31 1 2 3 4
5 6 7 8 9 10 11
5°C Niedziela
wieczór
3°C Poniedziałek
noc
2°C Poniedziałek
rano
3°C Poniedziałek
dzień
wiecej »

Reklama