Innym z zagrożeń jest zagospodarowanie emocji dla zysku z wykorzystaniem AI.
Według ekspertów z branży mediów 30 proc. treści tworzonych w sieci przez AI to halucynacje, a to rodzi zagrożenia dla wiarygodności treści pozyskiwanych z wykorzystaniem sztucznej inteligencji. Jednym z zagrożeń jest zagospodarowanie emocji dla zysku z wykorzystaniem AI.
Eksperci z branży mediów podczas panelu "Media i AI: Szansa czy niebezpieczeństwo" na Igrzyskach Wolności w Łodzi dyskutowali o zagrożeniach, jakie niesie sztuczna inteligencja i o odpowiedzialności odbiorców, w tym dziennikarzy za wykorzystywanie treści stworzonych przez AI.
W dyskusji wzięli udział redaktor naczelny Rzeczpospolitej Michał Szułdrzyński, zastępcy redaktorów naczelnych Gazety Wyborczej Roman Imielski i PAP Zuzanna Dąbrowska, a także Marcin Olender, dyrektor ds. Polityk Publicznych w AI Chamber.
Roman Imielski wprowadzając do panelu ekspertów zwrócił uwagę, że 30 proc. treści tworzonych przez AI na świecie, to halucynacje - dane nieprawdziwe. To rodzi pytanie o odpowiedzialność (m.in. dziennikarzy) za wykorzystywanie tych treści.
Michał Szułdrzyński, redaktor naczelny Rzeczpospolitej zwrócił uwagę na szerokie skutki pozyskiwania treści wygenerowanych przez sztuczną inteligencję:
- Jeśli zadam pytanie o przepis na sernik, zepsuję najwyżej jajka i ser. Ale jeśli zapytam AI o np. wycieczkę na Orlą Perć, a nigdy nie byłem w górach, albo AI poda mi nieprawdziwe informacje o warunkach wjazdu do jakiegoś kraju, a ja stanę na granicy i mnie tam nie wpuszczą, to kto weźmie na siebie odpowiedzialność za skutki informacji, którą dostanę z czatu? - zapytał Szułdrzyński.
Zuzanna Dąbrowska, zastępca redaktora naczelnego PAP zaakcentowała inne zagrożenie rozwojem AI, a mianowicie problem zagospodarowania ludzkich emocji pod kątem zysku.
- Dostępne są już narzędzia, które pozwalają wygenerować spersonalizowanego asystenta AI podobnego do bliskiej nam osoby, np. do takiej, która odeszła. Dzięki AI można cały czas być z taką osobą w kontakcie. Ludzie przywiązują się do takiego asystenta i nie potrafią się z taką wirtualną postacią rozstać - powiedziała Dąbrowska.
Dodała, że z takimi sytuacjami związane jest zagrożenie, że możemy w ten sposób zostać "zagospodarowani emocjonalnie" dla osiągnięcia zysku. - Asystent AI podobny np. do naszej mamy, która odeszła powie nam: "jesteś smutna, idź i kup sobie sukienkę tej, konkretnej firmy" - podkreśliła wicenaczelna PAP.
Marcin Olender, dyrektor ds. Polityk Publicznych w AI Chamber zwrócił uwagę, że od 2-3 lat świat zmienia się błyskawicznie, a w dziedzinie rozwoju AI panuje euforia, ale prędzej czy później nadejdzie rozczarowanie, bo w niektórych branżach rewolucja technologiczna przyniesie korzyści, chociaż zdemoluje inne biznesy nie przynosząc tam zysków.
- Rewolucja ma swoje ofiary. W branży mediów uważam, że te jakościowe media się obronią, bo ludzie chcą mieć coś wyjątkowego, czemu mogą zaufać, a one mają markę i wiarygodność. Większy kłopot będą miały te media czy portale, które mają zastępowalny kontent - papkę informacyjną - dodał Marcin Olender.
Uczestnicy dyskusji byli zgodni, że od sztucznej inteligencji nie da się uciec. - Musimy jednak wiedzieć, gdzie jest źródło informacji i mamy szczególny obowiązek, aby być źródłem, które nie budzi wątpliwości o jakiekolwiek halucynacje - powiedziała Zuzanna Dąbrowska.
12. Igrzyska Wolności pod hasłem "Czas niepewności" trwały w Łodzi od piątku do niedzieli. W ok. 170 dyskusjach i spotkaniach brało udział kilkuset prelegentów, w tym ministrowie spraw zagranicznych, finansów, edukacji i sprawiedliwości.
Zgodnie z planami MS, za taki czyn nadal groziłaby grzywna lub ograniczenie wolności.
Wciąż aktualne pozostaje stanowisko Trybunału, że Konwencja nie przyznaje „prawa do aborcji”.
Wciąż aktualne pozostaje stanowisko Trybunału, że Konwencja nie przyznaje „prawa do aborcji”.
Szymon Hołownia wybrany z kolei został wicemarszałkiem Sejmu.
Polskie służby mają wszystkie dane tych osób i ich wizerunki.