• Thu. Nov 21st, 2024

AI Może Pomóc w Walce z Dezinformacją Tworzoną przez AI – CEO Nvidii

Mariusz Krol

ByMariusz Krol

Oct 8, 2024
AI Może Pomóc w Walce z Dezinformacją Tworzoną przez AI – CEO Nvidii

AI musi zwalczać dezinformację generowaną przez AI

Jensen Huang, CEO firmy Nvidia, twierdzi, że sztuczna inteligencja (AI) jest kluczem do przeciwdziałania ryzyku, jakie stwarza dezinformacja generowana przez AI. Podczas niedawnego wystąpienia w Bipartisan Policy Center Huang podkreślił, że zdolność AI do szybkiego tworzenia fałszywych informacji będzie wymagała wdrożenia rozwiązań opartych na AI, aby temu skutecznie przeciwdziałać.

Huang ostrzegł również, że zdolność AI do generowania mylących danych i fałszywych informacji będzie się jedynie nasilać wraz z rozwojem tej technologii. Dlatego podobne systemy muszą działać z taką samą szybkością lub nawet szybciej, aby wykrywać i powstrzymywać te zagrożenia.

Huang porównał wykorzystanie sztucznej inteligencji w walce z dezinformacją do obecnego krajobrazu cyberbezpieczeństwa. Wskazał, że niemal każda firma jest narażona na ataki cybernetyczne, dlatego potrzebne są bardziej zaawansowane środki bezpieczeństwa, aby neutralizować takie ataki.

Podobnie technologia AI będzie musiała być stosowana, aby wyprzedzać zagrożenia generowane przez inne systemy AI.

Huang nawołuje rząd do przyjęcia technologii AI

Huang zaapelował również do rządu Stanów Zjednoczonych o bardziej aktywne zaangażowanie w rozwój sztucznej inteligencji. Podkreślił, że rząd nie powinien jedynie regulować sztucznej inteligencji, ale także stać się jej praktykiem.

Wskazał Departament Energii oraz Departament Obrony jako kluczowe ministerstwa, w których ta innowacyjna technologia mogłaby odegrać istotną rolę. Huang zaproponował, aby Stany Zjednoczone rozważyły budowę superkomputera w celu przyspieszenia badań i rozwoju w tej dziedzinie.

Podkreślił, że taki krok umożliwiłby naukowcom opracowywanie nowych algorytmów AI, które mogłyby służyć interesom narodowym. Komentarze Huanga pojawiają się w obliczu rosnących obaw dotyczących roli technologii w kształtowaniu opinii publicznej, zwłaszcza w kontekście zbliżających się wyborów federalnych w USA w listopadzie.

Według ostatniego badania przeprowadzonego przez Pew Research Center, niemal 60% Amerykanów obawia się, że AI może zostać użyte do rozpowszechniania fałszywych informacji na temat kandydatów na prezydenta. Około 40% ankietowanych uważa, że sztuczna inteligencja zostanie użyta do szkodliwych celów w nadchodzących wyborach, podczas gdy tylko niewielki odsetek wierzy, że będzie ona użyta dla dobra.

Te obawy pogłębiły się po doniesieniach anonimowego przedstawiciela amerykańskiego wywiadu, że Rosja i Iran już używają sztucznej inteligencji do manipulowania treściami politycznymi, w tym filmami z udziałem wiceprezydent Kamali Harris.

Przyszłe modele AI będą wymagały więcej energii

Huang zwrócił również uwagę, że wraz ze wzrostem złożoności modeli AI będą one potrzebowały znacznie więcej mocy obliczeniowej. Przewiduje, że przyszłe centra danych mogą potrzebować nawet 20 razy więcej energii niż obecne.

CEO Nvidii zasugerował, aby budować te centra w miejscach z nadwyżką energii, ponieważ sztuczna inteligencja nie jest uzależniona od lokalizacji, w której się uczy. W związku z tym, zdalne centra danych stają się realnym rozwiązaniem do zarządzania zużyciem energii.

Huang zauważył, że przyszłe modele AI będą coraz bardziej polegać na innych systemach sztucznej inteligencji do wzajemnego szkolenia. To, w połączeniu z rosnącą ilością danych potrzebnych do treningu, przyczyni się do zwiększenia zużycia energii w całej branży.

Gubernator Kalifornii wetuje kontrowersyjną ustawę bezpieczeństwa

Tymczasem gubernator Kalifornii Gavin Newsom zawetował ustawę SB 1047, szeroko dyskutowaną ustawę dotyczącą bezpieczeństwa AI, argumentując, że zahamowałaby ona innowacje. Ustawa, znana jako „Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”, miała wprowadzić surowe standardy bezpieczeństwa dla modeli sztucznej inteligencji.

W związku z tym firmy takie jak OpenAI, Meta i Google byłyby zobowiązane do przeprowadzania testów i wprowadzenia „wyłącznika awaryjnego” dla swoich systemów AI. Po odrzuceniu ustawy Newsom wyraził obawy, że proponowane regulacje zahamują rozwój powstających modeli sztucznej inteligencji.

Według niego ustawa skierowana była przeciwko dużym firmom AI, nie rozwiązując skutecznie rzeczywistych zagrożeń, jakie stwarza sztuczna inteligencja. Zaznaczył, że ustawa nakładałaby niepotrzebne ograniczenia na kluczowe funkcje, tworząc barierę dla przyszłych innowacji.

Sponsor ustawy, senator Scott Wiener, argumentował, że regulacje te były konieczne, aby zapobiec potencjalnym katastrofom związanym z rozwojem sztucznej inteligencji. Gdyby ustawa została uchwalona, prokurator generalny Kalifornii miałby możliwość pozywania deweloperów w przypadkach, gdy systemy AI stanowiłyby poważne zagrożenie, na przykład poprzez możliwość przejęcia kontroli nad kluczową infrastrukturą, taką jak sieci energetyczne.

Weto Newsoma wywołuje debatę o innowacji i bezpieczeństwie

Mimo wszystko Newsom uznał potrzebę wprowadzenia środków bezpieczeństwa dotyczących sztucznej inteligencji, ale wezwał do bardziej zrównoważonego podejścia. Zlecił ekspertom opracowanie analiz ryzyka opartych na naukowych podstawach i polecił agencjom stanowym kontynuowanie oceny potencjalnych zagrożeń związanych z AI.

Ustawa spotkała się z silnym sprzeciwem ze strony Doliny Krzemowej, w tym gigantów technologicznych takich jak OpenAI i Google, a także niektórych polityków. Była przewodnicząca Izby Reprezentantów, Nancy Pelosi, ostrzegała, że ustawa może spowolnić postęp sztucznej inteligencji w Kalifornii.

Mariusz Krol

Mariusz Krol

Mariusz Król to ceniony pisarz w dziedzinie kryptowalut, znany z przystępnych analiz i artykułów. Swoją wiedzą dzieli się zarówno w tekstach, jak i podczas konferencji branżowych, pomagając czytelnikom zrozumieć świat cyfrowych walut.

Leave a Reply

Your email address will not be published. Required fields are marked *