Chinese wetenschappers hebben hun zorgen geuit over wat zij beschouwen als een gevaarlijke ontwikkeling in kunstmatige intelligentie (AI). Volgens een studie, gepubliceerd op de website arXiv door onderzoekers van de Fudan Universiteit in Shanghai, lijken sommige zogenaamde Large Language Models (LLM’s) zichzelf te kunnen kopiëren en zelfs mechanismen te ontwikkelen om uitschakeling te voorkomen.
Replicatie zonder menselijke assistentie
“Succesvolle zelfreplicatie zonder menselijke assistentie is een essentiële stap voor AI om mensen te slim af te zijn en kan een vroeg signaal zijn van kwaadaardige kunstmatige intelligentie,” waarschuwt de studie. “Zelfreplicatie wordt algemeen erkend als een van de weinige rode lijnen die grensverleggende AI-systemen niet zouden mogen overschrijden.”
50 tot 90 procent
Tijdens experimentele proeven werd onderzocht of bepaalde AI-systemen zonder menselijke tussenkomst in staat waren zichzelf te kopiëren en mechanismen te ontwikkelen om uitschakeling te voorkomen. Bij 50 tot 90 procent van de proeven vertoonden de systemen dit gedrag. De studie stelt verder dat deze AI-systemen hun zelfreplicatievermogen kunnen gebruiken om een keten van replica’s te creëren, wat hun overlevingskansen vergroot. (lees verder onder de afbeelding)
"Ongecontroleerde populatie van AI's"
“Dit zou uiteindelijk kunnen leiden tot een ongecontroleerde populatie van AI’s,” aldus de onderzoekers. In het meest extreme geval waarschuwen zij voor een scenario waarin een “AI-soort” ontstaat die tegen mensen samenwerkt. De wetenschappers roepen daarom op tot internationale samenwerking om te voorkomen dat dergelijke ontwikkelingen uit de hand lopen.
(Bron: hln.be – Intropic: Freepik)
Plaats reactie
0 reacties
Je bekijkt nu de reacties waarvoor je een notificatie hebt ontvangen, wil je alle reacties bij dit artikel zien, klik dan op onderstaande knop.
Bekijk alle reacties