De auteur, Gary Smith, is economisch statisticus en publiceert regelmatig over de grenzen van statistische analyses, zoals die toegepast worden in AI en in big data onderzoek. Zijn artikel is een inleiding op zijn boek The AI delusion.
Smith vindt dat we te gauw vertrouwen op de betrouwbaarheid van door AI gegenereerde adviezen. Onze aanname dat computers sneller en beter denken en analyseren bevat zeker een kern van waarheid. Computers kunnen zeer snel grote hoeveelheden data doorzoeken en daarbij verbanden leggen die we zelf niet zo gauw op het spoor waren gekomen.
Het is echter gevaarlijk om aan te nemen dat AI altijd met juiste oordelen of aanwijzingen komt. Uiteindelijk zijn deze oordelen gestoeld op statistische analyses, met hun eigen beperkingen. Lang niet altijd is een gevonden correlatie een betrouwbaar of blijvend verband tussen grootheden. Het blijft dus nodig om zelf de vinger aan de pols te houden.
Het artikel eindigt met:
In the age of AI and big data, the real danger is not that computers are smarter than us, but that we think computers are smarter than us and therefore trust computers to make important decisions for us. We should not be intimidated into thinking that computers are infallible. Let’s trust ourselves to judge whether statistical patterns make sense and are therefore potentially useful, or are merely coincidental and therefore fleeting and useless. Human reasoning is fundamentally different from artificial intelligence, which is why it is needed more than ever.
Ik ben wat dieper gaan inzoomen op wat de AI specialisten er zelf van vinden, en kwam terecht bij François Chollet, een AI-onderzoeker werkzaam bij Google en auteur van Keras, een in Python geschreven framework voor deep learning (wiki)
Een jaar geleden heeft hij een interessante blog The impossibility of intelligence explosion geschreven.
Het idee van een mogelijke intelligence explosion is al in 1965 bedacht door de Pools-Joodse mathematicus Irving John Good: Stel dat we een computer bouwen die zichzelf kan verbeteren door de eigen programmacode aan te passen. Zodra dit begint zullen de verbeteringen zich op elkaar stapelen, en zal er dus een intelligentie explosie plaatsvinden.
Dit idee is tot op de dag van vandaag terug te vinden in de populair-wetenschappelijke artikelen over AI. François Chollet beargumenteert op overtuigende wijze dat dit idee berust op een verkeerd inzicht in zowel de aard van intelligentie, als in de mogelijkheden van AI, i.h.b. die van deep learning.
Ten aanzien van intelligentie betoogt Chollet dat intelligentie veel meer is dan alleen maar het probleem-oplossend vermogen van ons brein of van een computer. Intelligentie is situationeel bepaald, ingebed in de cultuur, en dus in belangrijke mate extern. Intelligentie zit in de boeken waar we toegang toe hebben, en in wiskundige formules. Chollet illustreert dit met vele voorbeelden.
Ten aanzien van deep learning maakt Chollet duidelijk dat deze aanpak goed werkt voor geavanceerde patroonherkenning, zolang we "dicht bij de trainingsdata blijven": One important limitation of our capabilities on that front is that our models can only handle inputs that are extremely close to what they've seen before -- you can't get very far from your training data. What we're doing here is basically glorified high-dimensional curve fitting.
In een interview met DataCamp wordt aan Chollet gevraagd waar AI niet goed in is. Ik laat zijn volledige aantwoord volgen:
- Anything that requires "grounding" or "understanding". For instance, AI can't understand the meaning of natural language, instead it treats language in terms of statistical dependencies or hard-coded processing rules. "Meaning", as it exists in the human mind, derives from embodied human experience, which our AI models don't have access to. For now at least. So no AI system today can "understand" its task in a way that would make sense to a human. Models merely map out the statistical manifold of their training data.
- Anything that involves dealing with data that's different from what the AI has seen before. AI can only apply rules you've coded explicitly, or recognize things that are very, very close to what it was trained on. Our capabilities decay exponentially the more uncertainty or variation you introduce in a task.
- Anything that involves reasoning and abstraction. Either we can hardcode explicit reasoning rules into the machine, or we can't perform reasoning at all. Current AI cannot figure out on its own abstract models of a situation. Arguably this is the main bottleneck to AI development today. If you solved it you would quickly be able to overcome the previous two.
Hoewel AI nu nog duidelijke beperkingen heeft, zullen er de komende jaren vorderingen worden gemaakt om de hierboven genoemde tekorten en problemen op te lossen. De fase van kinderziektes zal van voorbijgaande aard zijn.
Waar moeten we op letten om tot goede AI toepassingen te komen ? Chollet noemt drie belangrijke aandachtspunten voor de AI-gemeenschap:
- Hype. De mogelijkheden van AI worden overdreven en er worden niet na te komen verwachtingen gecreëerd. Dat is gevaarlijk, en het belemmert het publieke debat
- Ethiek. De AI-gemeenschap is in enkele jaren exponentieel gegroeid en bestaat uit jonge onervaren onderzoekers die zich nauwelijks bewust zijn van de ethische implicaties van de nieuwe AI toepassingen, bijvoorbeeld ten aanzien van bevooroordeelde AI systemen, of manipulatie
- Wetenschap. Er wordt veel gepubliceerd en weinig gecontroleerd. Dat leidt tot gemakzuchtig en/of onbetrouwbaar wetenschappelijk onderzoek. Het risico van onvoldoende toezicht en intervisie ligt op de loer.
Geen opmerkingen:
Een reactie posten