Kanada inwestuje w budowę robotów, które wyglądają i myślą jak ludzie, będą mogły pracować na niebezpiecznych stanowiskach i tam, gdzie brakuje pracowników. Rząd federalny włączył się w finansowanie pierwszego takiego projektu na świecie.
Nowy typ robotów ma być wykorzystywany np. w zakładach chemicznych, wykorzystujących nuklearne zasilanie, a także w górnictwie, wojsku, w kosmosie, przemyśle wytwórczym, a nawet w służbie zdrowia. "W nowym projekcie będą opracowane roboty, które są podobne do ludzi, zarówno fizycznie jak i poznawczo, co pozwoli im funkcjonować w różnych rodzajach pracy, w różnych sektorach i wykonywać pracę fizyczną. To umożliwi działającym zdalnie pracownikom zarządzanie robotami ogólnego przeznaczenia, wykonującym zadania, które stanowiłyby zagrożenie dla ludzi" - napisano w rządowym komunikacie opublikowanym w środę.
Nad zbudowaniem pierwszego robota na świecie, który będzie działał, wykorzystując podobną do ludzkiej sztuczną inteligencję, dającą możliwość uczenia się, pracuje firma z Vancouver, Sanctuary Cognitive Systems Corporation. Do ponad 100 mln CAD pozyskanego już przez firmę finansowania, 30 mln CAD dokłada kanadyjski rząd za pośrednictwem funduszu innnowacji strategicznych.
"Większość (projektów - PAP) sztucznej inteligencji na rynku jest skonstruowana z myślą o wykonywaniu wąsko określonych, konkretnych zadań" - podkreśla firma z Vancouver na swojej stronie internetowej.
Roboty, nad którymi od 2018 r. pracuje Sanctuary, mają nauczyć się myśleć jak ludzie, ale będą wykonywać przypisane im zadania pod nadzorem ludzi.
Kanada jest trzecia wśród krajów G7 pod względem zakresu prac nad AI i chce się pozycjonować jako jeden z najważniejszych ośrodków badań nad sztuczną inteligencją i jej wykorzystwaniem w gospodarce.
Towarzyszą temu także prace filozofów i etyków. W grudniu 2018 r. Uniwersytet Montrealski opublikował projekt zasad rządzących sztuczną inteligencją, nazwany Deklaracją Montrealską, nad którą pracowało stu specjalistów. Montreal jest jednym z kanadyjskich miast, w których działają centra prac nad AI. "Pierwszym zagrożeniem związanym z rozwojem AI jest złudzenie, że można zapanować nad przyszłością dzięki obliczeniom", podkreślono w deklaracji wskazując, że firmy sektora powinny mieć "etyczny kompas".
"Sztuczna inteligencja powinna przyczyniać się do zwiększenia dobrostanu wszystkich czujących istot" - tak brzmi pierwsza z 10 zasad. Punkt drugi deklaracji mówi o respektowaniu autonomii człowieka i wspomaganiu zwiększania przez człowieka kontroli nad własnym życiem i otoczeniem. W punkcie trzecim zawarto zasadę ochrony prywatności. Kolejne punkty dotyczą respektowania zasad solidarności społecznej i kontroli demokratycznej nad istniejącymi systemami AI. Zasada szósta dotyczy zobowiązania twórców systemów AI do wzmacniania równości i tworzenia społeczeństw bazujących na sprawiedliwości, zasada siódma - utrzymania różnorodności społecznej i inkluzywności.
Zasady od ósmej do dziesiątej dotyczą bezpieczeństwa: przewidywania negatywnych zastosowań i utrzymywania ludzkiej odpowiedzialności.
Potrzebą praw rządzących sztuczną inteligencją zajmowali się powieściopisarze. W 1942 r. Isaac Asimov w opowiadaniu "Zabawa w berka" sformułował trzy prawa robotyki, do których dodał następnie prawo nadrzędne: Robot nie może skrzywdzić ludzkości, lub poprzez zaniechania działania doprowadzić do uszczerbku dla ludzkości. Prawom robotyki Asimova i jego koncepcji psychohistorii, pozwalającej na bazie statystycznej przewidywać przyszłość (w "Fundacji"), rząd Kanady już kiedyś poświęcał uwagę: na stronach Canadian Forest Service (lasy państwowe) znajduje się artykuł z 1996 r., w którym podkreślono, że prognozowanie zachowań ludzkich jest już możliwe - tak, jak przewidywał to m.in. Asimov. Z kolei Frank Herbert w sześciotomowym cyklu "Diuna" pisał o krucjacie przeciw komputerom, której rezultatem było obowiązujące w przyszłości przykazanie "nie będziesz czynił machin na podobieństwo rozumu ludzkiego".
- poinformował portal Ukrainska Prawda, powołując się na źródła.
Według przewodniczącego KRRiT materiał zawiera treści dyskryminujące i nawołujące do nienawiści.
W perspektywie 2-5 lat można oczekiwać podwojenia liczby takich inwestycji.