Hoe dichtbij is Artificial Intelligence bij menselijk denken?


De grootste uitdaging en tevens het verschil met ons mensen is het sociale domein. Afgelopen zomer is er een computerspel gepubliceerd en krijgt veel aandacht. Het spel "Detroit Become Human" is een decision based spel dat bewustzijn in machines verkent en de sociale problemen die eromheen zijn. Dit is dan ook geen nieuw probleem! In feite, lijken we terug te komen naar de steeds terugkomende punten en of het nou via Hollywood-films is, sciencefiction romans of, in dit geval een video game. Volgens Ben Medlock van bigthink.com is het idee van mensachtige kunstmatige intelligentie offtrack sinds de jaren 1950. Volgens hem, hebben we het bouwen van machines met een heel ander soort gedachten gehad voor enige tijd, en de grote reden hierachter is de samenstelling van de mens versus mechanische hersenen. De menselijke hersenen, zo betoogt hij, is ontworpen om te voorspellen, terwijl een mechanische brein is ontworpen om te onthouden. Bijvoorbeeld fotos van een dinosaurus, als je een mens een foto van een groot apart reptiel laat zien zal hij/zij zeggen dat het een dinosaurus is. Een computer daarentegen zou moeten worden blootgesteld aan een lange lijst van foto's van verschillende dinosaurussen voordat het zou kunnen zijn te identificeren in het nieuwe voorbeeld, omdat het meer met geheugen dan met voorspelling functioneert. We kunnen nooit zeker weten of machines eigen bewustzijn kunnen aanleren George Zarkadakis in The Huffington Post maakt een argument dat de vragen van de aard van de mensheid. Het eindspel van kunstmatige algemene intelligentie zelfbewustzijn is. Het grote probleem, zo betoogt hij, bij het bepalen wanneer waarnemingsvermogen heeft bereikt is het meten van waarnemingsvermogen in de eerste plaats. Rene Descartes zei, "I think, therefore I am." Het probleem met het gebruik van Descartes' model is dat "denken" te vaag is. Wat telt precies als denken? Als denken is teruggebracht tot slechts probleemoplossende dan heb we mens niveau AI reeds overtroffen.

Alan Turing heeft, naast de Duitse code breken in de Tweede Wereldoorlog, een test gemaakt waarin een persoon praat met een robot zonder dat ze weten dat het een robot is. Als ze nog steeds niet weten na het gesprek, heeft de robot de test doorstaan. Het probleem is dat zelfs die definitie gaten heeft. De mogelijkheid om menselijk te lijken is zeker een stap in de richting naar het bewustzijn, maar is het wel het ware bewustzijn van zichzelf? Velen zouden debatteren dat dat natuurlijk niet zo is en dat het ware bewustzijn geen bewustzijn van zichzelf is. En dat de mogelijkheid echt eigen emoties te hebben, doelstellingen en verlangens buiten het domein van fysieke behoeften impliceert. Dit is waar de Turing Test reizen ons weer laat denken. Als we niet weten wanneer een robot zich voordoet als een mens, hoe zullen wij kunnen vertellen wanneer ze echt zelfbewustzijn hebben bereikt? Volledig zelfbewustzijn zal lang duren, maar het is moeilijk te zeggen precies wanneer het zal gebeuren. Sommigen hebben betoogd dat het een soort gok zou zijn. Het gebied van AI is ontzettend verwarrend op zijn zachtst, ondanks het feit dat er meer geld in wordt gegoten elke dag. Er is wel degelijk vooruitgang, het lijkt alsof er elke dag een nieuwe stap voorwaarts is. Maar er is nog een heleboel te doen. De science fiction films en boeken lijken nooit precies te brengen hoe moeilijk het is om de ware waarnemingsvermogen te bereiken. Ze zijn ook geneigd om zeer sombere vooruitzichten te nemen, terwijl in werkelijkheid wetenschap niet stopt of achteruit gaat. Er is een volledig veld gewijd aan de morele kwesties, gemaakt door de evolutie van de AI. Dit veld heet Robo ethiek en de meest bekende voorbeelden zijn Asimov's wetten van de robotica. In het kort

1. een robot kan niet een mens schaden of toestaan dat een mens omkomen door schade door passiviteit.

2. een robot moet gehoorzamen wat een mens hen beveelt tenzij het bevel de eerste wet overtreedt

3. een robot kan zich verdedigen maar alleen zonder schending van de eerste of tweede wet.

Kunstmatige algemene intelligentie als een concept is vaak misleidend omdat overal om ons heen zien we robots winnen van mensen op diverse vlakken en we raken er van in paniek. Het probleem is dat die machines zijn ontworpen om te doen waarin zij ook wonnen maar voor de rest helemaal niet. In termen van de werkelijke intelligentie lopen robots ver achter. Hoofd AI van Facebook, Yann Lecun, zegt dat in termen van ongerichte intelligentie, robots momenteel nog niet eens zo slim zijn als ratten. En dat terwijl ratten helemaal niet zo slim zijn. Intelligentie betekent begrijpen van complexe situaties en een vermogen om te begrijpen dat alleen sommige mensen wreed en potentieel kwaad zijn.