28-01-2020 7:01 am Gepubliceerd door Nederland.ai Laat uw gedicht achter

Kunstmatige intelligentie (AI) wordt van oudsher gebruikt in de cloud, omdat AI-algoritmen enorme hoeveelheden data verknoeien en enorme computerbronnen verbruiken. Maar AI leeft niet alleen in de cloud. In veel situaties moeten AI-gebaseerde gegevens kraken en moeten beslissingen lokaal worden genomen, op apparaten die zich dicht bij de rand van het netwerk bevinden.

Met AI aan de rand kunnen bedrijfskritische en tijdgevoelige beslissingen sneller, betrouwbaarder en veiliger worden genomen. De haast om AI naar de rand te duwen wordt gevoed door de snelle groei van slimme apparaten aan de rand van het netwerk – slimme telefoons, slimme horloges en sensoren die op machines en infrastructuur worden geplaatst. Eerder deze maand besteedde Apple $200 miljoen aan het verwerven van Xnor.ai, een in Seattle gevestigde AI-startup die zich richtte op software en hardware voor het leren van machines met een laag vermogen. Microsoft biedt een uitgebreide toolkit genaamd Azure IoT Edge die het mogelijk maakt om AI-werklasten te verplaatsen naar de rand van het netwerk.

Zal AI zich blijven verplaatsen naar de rand? Wat zijn de voor- en nadelen van AI aan de rand versus AI in de cloud? Om te begrijpen wat de toekomst in petto heeft voor AI aan de rand, is het nuttig om terug te kijken naar de geschiedenis van de informatica en hoe de slinger van gecentraliseerde intelligentie naar gedecentraliseerde intelligentie is geslingerd over vier rekenparadigma’s.

Gecentraliseerde versus gedecentraliseerde

Sinds de begindagen van de informatica is een van de ontwerpuitdagingen altijd geweest waar intelligentie in een netwerk zou moeten leven. Zoals ik in 2001 in een artikel in de Harvard Business Review heb opgemerkt, is er een “intelligentiemigratie” geweest van gecentraliseerde intelligentie naar gedecentraliseerde intelligentie – een cyclus die zich nu herhaalt.

Het eerste tijdperk van de informatica was het mainframe, waarbij de intelligentie zich concentreerde in een enorme centrale computer die alle rekenkracht had. Aan de andere kant van het netwerk waren er terminals die in wezen bestonden uit een groen scherm en een toetsenbord met weinig eigen intelligentie, die ze “domme terminals” werden genoemd.

Het tweede tijdperk van computing was de desktop of personal computer (PC), die het mainframe paradigma op zijn kop zette. PC’s bevatten alle intelligentie voor opslag en berekening lokaal en hoefden niet eens op een netwerk te worden aangesloten. Deze gedecentraliseerde intelligentie luidde de democratisering van de informatica in en leidde tot de opkomst van Microsoft en Intel, met de visie om in elk huis en op elk bureau een PC te plaatsen.

Het derde tijdperk van computing, genaamd client-server computing, bood een compromis tussen de twee uitersten van intelligentie. Grote servers voerden het zware werk uit aan de achterkant en “front-end intelligence” werd verzameld en opgeslagen op netwerkclienthardware en -software.

Het vierde tijdperk van computing is het cloud computing paradigma, gepionierd door bedrijven als Amazon met zijn Amazon Web Services, Salesforce.com met zijn SaaS (Software as a Service) aanbod, en Microsoft met zijn Azure cloud platform. De cloud biedt enorm veel rekenkracht en zeer goedkoop geheugen en opslag. Het is alleen maar logisch dat AI-toepassingen in de cloud zouden worden ondergebracht, aangezien de rekenkracht van AI-algoritmen tussen 2012 en 2019 300.000 keer is toegenomen, met een verdubbeling van elke drieënhalve maand.

De slingerschommels weer

Cloud-gebaseerde AI heeft echter zijn problemen. Ten eerste heeft cloud-gebaseerde AI te lijden onder latentie – de vertraging die optreedt wanneer gegevens naar de cloud gaan voor verwerking en de resultaten via het netwerk worden teruggestuurd naar een lokaal apparaat. In veel situaties kan latentie ernstige gevolgen hebben. Wanneer bijvoorbeeld een sensor in een chemische fabriek een dreigende explosie voorspelt, moet de fabriek onmiddellijk worden stilgelegd. Een beveiligingscamera op een luchthaven of een fabriek moet indringers herkennen en onmiddellijk reageren. Een autonoom voertuig kan niet eens een tiende van een seconde wachten om een noodstop te activeren wanneer het AI-algoritme een dreigende botsing voorspelt. In deze situaties moet AI zich aan de rand bevinden, waar beslissingen sneller genomen kunnen worden zonder afhankelijk te zijn van netwerkverbindingen en zonder enorme hoeveelheden gegevens heen en weer te verplaatsen over een netwerk.

De slinger slingert weer, van centralisatie naar decentralisatie van intelligentie – net zoals we 40 jaar geleden zagen met de verschuiving van mainframe computing naar desktop computing.

Echter, zoals we met PC’s hebben ontdekt, is het leven niet gemakkelijk op het randje. Er is een grens aan de hoeveelheid rekenkracht die in een camera, sensor of smartphone kan worden gestopt. Bovendien zijn veel van de apparaten aan de rand van het netwerk niet aangesloten op een stroombron, wat vragen oproept over de levensduur van de batterij en de warmteafvoer. Deze uitdagingen worden aangepakt door bedrijven als Tesla, ARM en Intel, omdat zij efficiëntere processoren en slankere algoritmen ontwikkelen die minder stroom verbruiken.

Maar er zijn nog steeds tijden dat AI beter af is in de cloud. Wanneer beslissingen een enorme rekenkracht vereisen en niet in real time moeten worden genomen, moet AI in de cloud blijven. Als AI bijvoorbeeld wordt gebruikt om een MRI-scan te interpreteren of om geospatiale gegevens te analyseren die door een drone boven een boerderij worden verzameld, kunnen we de volledige kracht van de wolk benutten, zelfs als we een paar minuten of een paar uur moeten wachten op de beslissing.

Opleiding vs. Conclusie

Een manier om te bepalen waar AI moet leven is door het verschil te begrijpen tussen training en gevolgtrekking in AI-algoritmen. Wanneer AI-algoritmen worden gebouwd en getraind, vereist het proces enorme hoeveelheden gegevens en rekenkracht. Om een autonoom voertuig te leren voetgangers of stoplichten te herkennen, moet u het algoritme miljoenen beelden voeden. Als het algoritme echter eenmaal is getraind, kan het lokaal een “gevolgtrekking” maken door naar één object te kijken om te bepalen of het een voetganger is. In de inferentiemodus maakt het algoritme gebruik van zijn training om minder rekenintensieve beslissingen te nemen aan de rand van het netwerk.

AI in de cloud kan synergetisch werken met AI aan de rand. Denk aan een AI-aangedreven voertuig als Tesla. AI aan de rand van het netwerk geeft talloze beslissingen in real time weer, zoals remmen, sturen en rijstrookveranderingen. s Nachts, wanneer de auto geparkeerd staat en verbonden is met een Wi-Fi-netwerk, worden gegevens geüpload naar de cloud om het algoritme verder te trainen. Het slimmere algoritme kan dan via de cloud naar de auto worden gedownload – een virtueuze cyclus die Tesla al honderden keren heeft herhaald door middel van software-updates in de cloud.

Het omarmen van de wijsheid van de “En”

Er zal behoefte zijn aan AI in de cloud, net zoals er meer redenen zullen zijn om AI aan de rand te plaatsen. Het is geen of/of antwoord, het is een “en.” AI zal zijn waar het moet zijn, net zoals intelligentie zal leven waar het moet leven. Ik zie AI evolueren naar “omgevingsintelligentie”-gedistribueerd, alomtegenwoordig en verbonden. In deze toekomstvisie zal intelligentie aan de rand een aanvulling zijn op intelligentie in de wolk, voor een betere balans tussen de eisen van gecentraliseerde computing en gelokaliseerde besluitvorming.

Tags : , , ,

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.

negentien − 7 =

The maximum upload file size: 256 MB. You can upload: image, audio, video, document, spreadsheet, interactive, text, archive, code, other. Links to YouTube, Facebook, Twitter and other services inserted in the comment text will be automatically embedded. Drop file here