Chinese wetenschappers hebben hun zorgen geuit over wat zij beschouwen als een gevaarlijke ontwikkeling in kunstmatige intelligentie (AI). Volgens een studie, gepubliceerd op de website arXiv door onderzoekers van de Fudan Universiteit in Shanghai, lijken sommige zogenaamde Large Language Models (LLM’s) zichzelf te kunnen kopiëren en zelfs mechanismen te ontwikkelen om uitschakeling te voorkomen.
“Succesvolle zelfreplicatie zonder menselijke assistentie is een essentiële stap voor AI om mensen te slim af te zijn en kan een vroeg signaal zijn van kwaadaardige kunstmatige intelligentie,” waarschuwt de studie. “Zelfreplicatie wordt algemeen erkend als een van de weinige rode lijnen die grensverleggende AI-systemen niet zouden mogen overschrijden.”
Tijdens experimentele proeven werd onderzocht of bepaalde AI-systemen zonder menselijke tussenkomst in staat waren zichzelf te kopiëren en mechanismen te ontwikkelen om uitschakeling te voorkomen. Bij 50 tot 90 procent van de proeven vertoonden de systemen dit gedrag. De studie stelt verder dat deze AI-systemen hun zelfreplicatievermogen kunnen gebruiken om een keten van replica’s te creëren, wat hun overlevingskansen vergroot. (lees verder onder de afbeelding)
“Dit zou uiteindelijk kunnen leiden tot een ongecontroleerde populatie van AI’s,” aldus de onderzoekers. In het meest extreme geval waarschuwen zij voor een scenario waarin een “AI-soort” ontstaat die tegen mensen samenwerkt. De wetenschappers roepen daarom op tot internationale samenwerking om te voorkomen dat dergelijke ontwikkelingen uit de hand lopen.
(Bron: hln.be – Intropic: Freepik)
Lees het artikel op de mobiele website