eer dan 3000 wetenschappers, onderzoekers en professionalswerkzaam in de kunstmatige intelligentie riepen deze week in een open brief optot een moratorium van een half jaar op wat zij “Giant AI” noemen: het trainen van AI-systemen die krachtiger zijn dan GPT-4 (dat al krachtiger is dan ChatGPT). Zij stellen zich vragen als: "Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop non human minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization?" Het antwoord, aldus de ondertekenaars, dient niet te worden gegeven door niet gekozen leiders van technologische bedrijven. De pauze van een half jaar zou gebruikt moeten worden voor het opstellen van veiligheidseisen voor de ontwikkeling van vergaande AI, inclusief onafhankelijk toezicht.
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
UNESCO kwam al snel met de reactie dat haar “Recommendation on the ethics of AI” precies zulke veiligheidseisen bevat.
Ons eigen TNO onderschrijft de “noodkreet” van harte.
https://www.tno.nl/nl/newsroom/insights/2023/03/giant-ai-goes-down-the-european-road/
Overigens is niet iedereen even positief. AI Snake Oil spreekt over een misleidend initiatief, dat focust op speculatieve risico’s op de lange termijn, en daarmee op schadelijke wijze voorbij gaat aan de reële risico’s die AI op dit moment al met zich meebrengt: te veel vertrouwen in onnauwkeurige tools (vs. kwaadaardige desinformatie), machtsconcentratie en uitbuiting van arbeiders (vs. AI die al het werk van mensen overneemt) en actuele veiligheidsrisico’s (vs. existentiële risico’s op de lange termijn).
https://aisnakeoil.substack.com/p/a-misleading-open-letter-about-sci