Szef SEC twierdzi, że AI doprowadzi do krachu na rynkach finansowych
Podczas gdy firmy na Wall Street eksperymentujÄ z technologiÄ generatywnej sztucznej inteligencji, szef AmerykaÅskiej Komisji Papierów WartoÅciowych i GieÅd (SEC) dostrzega w niej potencjalne zagrożenie. Jego zdaniem wykorzystanie AI może doprowadziÄ do krachu na rynkach finansowych w ciÄ gu najbliższej dekady.
- Po sukcesie modelu GPT od OpenAI, firmy na Wall Street eksperymentujÄ z technologiÄ generatywnej AI, która miaÅaby wspieraÄ decyzje traderów i doradców inwestycyjnych
- W opinii przewodniczÄ cego SEC – Gary’ego Genslera, wykorzystanie modeli AI oferowanych przez jednÄ firmÄ (lub maÅÄ grupÄ firm) przez wiele różnych instytucji, zagraża stabilnoÅci systemu finansowego
ZależnoÅÄ od firm technologicznych problemem regulatorów
Chociaż giganci tacy, jak Goldman Sachs i Deutsche Bank zabronili pracownikom korzystania z chatbotów, wiele firm na Wall Street podjÄÅo siÄ wdrażania podobnych technologii.
JP Morgan zÅożyÅ wniosek o patent na „Index GPT”, wspierajÄ cy pracÄ traderów, natomiast Morgan Stanley uruchomiÅ model bazujÄ cy na GPT-4, który uÅatwia pracownikom dostÄp do informacji. Ma on zapewniaÄ doradcom inwestycyjnym szybki dostÄp do bazy danych skÅadajÄ cej siÄ z okoÅo 100 000 dokumentów.
Gary Gensler, przewodniczÄ cy amerykaÅskiej komisji SEC, w rozmowie z Financial Times, ostrzega, że nieograniczona regulacjami adopcja nowej technologii może szybko staÄ siÄ ÅºródÅem problemów. Wynika to z ryzyka zwiÄ zanego z korzystaniem z tych samych modeli AI przez różne podmioty w Åwiecie finansów:Â
MyÅlÄ, że w przyszÅoÅci bÄdziemy mieli kryzys finansowy i w późniejszych raportach ludzie powiedzÄ : 'Aha! PolegaliÅmy na jednym modelu lub agregatorze danych.
Jego zdaniem, z uwagi na ograniczonÄ liczbÄ firm oferujÄ cych AI, różne instytucje finansowe bÄdÄ polegaÄ na modelu dostarczanym przez jednÄ spóÅkÄ. Tym samym bÅÄdy w jednym modelu AI mogÄ wpÅynÄ Ä na caÅy system finansowy.
Gensler zasugerowaÅ też, że regulacja sztucznej inteligencji wymaga wspóÅpracy różnych agencji federalnych i wymieniÅ zależnoÅÄ instytucji finansowych od zewnÄtrznej infrastruktury producentów AI jako jedno z najwiÄkszych wyzwaÅ:Â
Jest to kwestia stabilnoÅci finansowej, ponieważ wiÄkszoÅÄ naszych regulacji dotyczy pojedynczych instytucji, a tutaj mamy do czynienia z problemem horyzontalnym, w którym wiele instytucji może polegaÄ na tym samym modelu bazowym lub agregatorze danych. Nawet jeÅli obecne Årodki zostaÅyby zaktualizowane, nadal nie rozwiÄ zujÄ one problemu horyzontalnego – jeÅli wszyscy polegajÄ na modelu bazowym, a model ten nie znajduje siÄ u brokera-dealera, ale w jednej z dużych firm technologicznych.Â