Szef SEC twierdzi, że AI doprowadzi do krachu na rynkach finansowych
Podczas gdy firmy na Wall Street eksperymentują z technologią generatywnej sztucznej inteligencji, szef Amerykańskiej Komisji Papierów Wartościowych i Giełd (SEC) dostrzega w niej potencjalne zagrożenie. Jego zdaniem wykorzystanie AI może doprowadzić do krachu na rynkach finansowych w ciągu najbliższej dekady.
- Po sukcesie modelu GPT od OpenAI, firmy na Wall Street eksperymentują z technologią generatywnej AI, która miałaby wspierać decyzje traderów i doradców inwestycyjnych
- W opinii przewodniczÄ…cego SEC – Gary’ego Genslera, wykorzystanie modeli AI oferowanych przez jednÄ… firmÄ™ (lub małą grupÄ™ firm) przez wiele różnych instytucji, zagraża stabilnoÅ›ci systemu finansowego
Zależność od firm technologicznych problemem regulatorów
Chociaż giganci tacy, jak Goldman Sachs i Deutsche Bank zabronili pracownikom korzystania z chatbotów, wiele firm na Wall Street podjęło się wdrażania podobnych technologii.
JP Morgan zÅ‚ożyÅ‚ wniosek o patent na „Index GPT”, wspierajÄ…cy pracÄ™ traderów, natomiast Morgan Stanley uruchomiÅ‚ model bazujÄ…cy na GPT-4, który uÅ‚atwia pracownikom dostÄ™p do informacji. Ma on zapewniać doradcom inwestycyjnym szybki dostÄ™p do bazy danych skÅ‚adajÄ…cej siÄ™ z okoÅ‚o 100 000 dokumentów.
Gary Gensler, przewodniczÄ…cy amerykaÅ„skiej komisji SEC, w rozmowie z Financial Times, ostrzega, że nieograniczona regulacjami adopcja nowej technologii może szybko stać siÄ™ źródÅ‚em problemów. Wynika to z ryzyka zwiÄ…zanego z korzystaniem z tych samych modeli AI przez różne podmioty w Å›wiecie finansów:Â
Myślę, że w przyszłości będziemy mieli kryzys finansowy i w późniejszych raportach ludzie powiedzą: 'Aha! Polegaliśmy na jednym modelu lub agregatorze danych.
Jego zdaniem, z uwagi na ograniczoną liczbę firm oferujących AI, różne instytucje finansowe będą polegać na modelu dostarczanym przez jedną spółkę. Tym samym błędy w jednym modelu AI mogą wpłynąć na cały system finansowy.
Gensler zasugerowaÅ‚ też, że regulacja sztucznej inteligencji wymaga współpracy różnych agencji federalnych i wymieniÅ‚ zależność instytucji finansowych od zewnÄ™trznej infrastruktury producentów AI jako jedno z najwiÄ™kszych wyzwaÅ„:Â
Jest to kwestia stabilnoÅ›ci finansowej, ponieważ wiÄ™kszość naszych regulacji dotyczy pojedynczych instytucji, a tutaj mamy do czynienia z problemem horyzontalnym, w którym wiele instytucji może polegać na tym samym modelu bazowym lub agregatorze danych. Nawet jeÅ›li obecne Å›rodki zostaÅ‚yby zaktualizowane, nadal nie rozwiÄ…zujÄ… one problemu horyzontalnego – jeÅ›li wszyscy polegajÄ… na modelu bazowym, a model ten nie znajduje siÄ™ u brokera-dealera, ale w jednej z dużych firm technologicznych.Â