09-03-2020 4:55 am Gepubliceerd door Nederland.ai Laat uw gedicht achter

Volgens een onderzoek van Gartner zal 48% van de wereldwijde CIO’s tegen het einde van 2020 AI inzetten. Ondanks al het optimisme rond AI en ML blijf ik echter een beetje sceptisch. In de nabije toekomst voorzie ik geen echte uitvindingen die zullen leiden tot seismische verschuivingen in de productiviteit en de levensstandaard. Bedrijven die wachten op een grote verstoring in het AI/ML-landschap zullen de kleinere ontwikkelingen missen.

Hier zijn enkele trends die op dit moment misschien onopgemerkt blijven, maar die op de lange termijn grote gevolgen zullen hebben:

1. Specialistische hardware- en cloudaanbieders veranderen het landschap

Voorbij zijn de dagen dat on-premise versus cloud een hot topic was voor ondernemingen. Vandaag de dag hebben zelfs conservatieve organisaties het over cloud en open source. Geen wonder dat cloud-platforms hun aanbod vernieuwen met AI/ML-diensten.

Nu ML-oplossingen steeds veeleisender worden, is het aantal CPU’s en RAM niet langer de enige manier om te versnellen of te schalen. Er worden meer algoritmes geoptimaliseerd voor specifieke hardware dan ooit tevoren – of het nu gaat om GPU’s, TPU’s of “Wafer Scale Engines”. Deze verschuiving naar meer gespecialiseerde hardware om AI/ML problemen op te lossen zal versnellen. Organisaties zullen hun gebruik van CPU’s beperken – om alleen de meest fundamentele problemen op te lossen. Het risico van veroudering zal de generieke rekeninfrastructuur voor ML/AI onhoudbaar maken. Dat is reden genoeg voor organisaties om over te stappen op cloud platformen.

De toename van gespecialiseerde chips en hardware zal ook leiden tot incrementele algoritmeverbeteringen door gebruik te maken van de hardware. Hoewel nieuwe hardware/chips het gebruik van AI/ML-oplossingen mogelijk maken die eerder als langzaam/onmogelijk werden beschouwd, moet veel van de open-source tooling die momenteel de generieke hardware aandrijft, worden herschreven om te kunnen profiteren van de nieuwere chips. Recente voorbeelden van algoritmeverbeteringen zijn Sideways om de DL-training te versnellen door de trainingsstappen te parallelliseren, en Reformer om het gebruik van het geheugen en de rekenkracht te optimaliseren.

2. Innovatieve oplossingen voor en rond de privacy

Ik voorzie ook een geleidelijke verschuiving in de focus op de privacy van gegevens naar implicaties voor de privacy van ML-modellen. Er is veel nadruk gelegd op hoe en welke gegevens we verzamelen en hoe we ze gebruiken. Maar ML-modellen zijn geen echte zwarte dozen. Het is mogelijk om de input van het model af te leiden op basis van de output in de loop van de tijd. Dit leidt tot privacy-lekkage. Uitdagingen op het gebied van data- en model privacy zullen organisaties dwingen om gefedereerde leeroplossingen te omarmen. Vorig jaar bracht Google TensorFlow Privacy uit, een raamwerk dat werkt volgens het principe van differentiële privacy en het toevoegen van ruis aan obscure inputs. Met federated learning verlaten de gegevens van een gebruiker nooit zijn apparaat/machine. Deze machinale leermodellen zijn slim genoeg en hebben een klein genoeg geheugen om op smartphones te draaien en lokaal van de gegevens te leren.

Meestal was de basis voor het vragen naar de gegevens van een gebruiker het personaliseren van zijn of haar individuele ervaring. Google Mail gebruikt bijvoorbeeld het typegedrag van de individuele gebruiker om autosuggest te leveren. Hoe zit het met gegevens/modellen die helpen de ervaring te verbeteren, niet alleen voor die persoon maar ook voor een bredere groep mensen? Zouden mensen bereid zijn om hun getrainde model (geen gegevens) te delen ten voordele van anderen? Er is hier een interessante zakelijke mogelijkheid: betalende gebruikers voor modelparameters die voortkomen uit het trainen van de data op hun lokale apparaat en het gebruik van hun lokale rekenkracht om modellen te trainen (bijvoorbeeld op hun telefoon als deze relatief onbruikbaar is).

3. Robuuste modelimplementatie wordt missiekritisch

Op dit moment hebben organisaties moeite met het produceren van modellen voor schaalbaarheid en betrouwbaarheid. De mensen die de modellen schrijven zijn niet noodzakelijkerwijs experts op het gebied van modelveiligheid, -beveiliging en -prestaties. Zodra de modellen voor machinaal leren een integraal onderdeel worden van mainstream en kritische toepassingen, zal dit onvermijdelijk leiden tot aanvallen op modellen die vergelijkbaar zijn met de denial-of-service-aanvallen waar mainstream apps momenteel mee te maken hebben. We hebben al enkele low-tech voorbeelden gezien van hoe dit eruit zou kunnen zien: een Tesla versnellen in plaats van vertragen, van rijstrook wisselen, abrupt stoppen, of ruitenwissers aanzetten zonder de juiste triggers. Stelt u zich eens voor welke gevolgen dergelijke aanvallen zouden kunnen hebben voor financiële systemen, gezondheidszorgapparatuur, enz. die sterk afhankelijk zijn van AI/ML?

Op dit moment zijn de vijandelijke aanvallen beperkt tot de academische wereld om de implicaties van de modellen beter te begrijpen. Maar in de niet al te verre toekomst zullen aanvallen op modellen “uit winstbejag” zijn – gedreven door uw concurrenten die willen laten zien dat ze op de een of andere manier beter zijn, of door kwaadwillende hackers die u mogelijk aan het losgeld houden. Zo vertrouwen nieuwe cybersecurity tools vandaag de dag op AI/ML om bedreigingen zoals netwerkinbraken en virussen te identificeren. Wat als ik in staat ben om nep-bedreigingen uit te lokken? Wat zouden de kosten zijn die verbonden zijn aan het identificeren van real-vs-fake-waarschuwingen?

Om dergelijke bedreigingen tegen te gaan, moeten organisaties meer nadruk leggen op modelverificatie om robuustheid te garanderen. Sommige organisaties maken al gebruik van netwerken van tegenstanders om diepe neurale netwerken te testen. Vandaag de dag huren we externe experts in om netwerkbeveiliging, fysieke beveiliging, etc. te controleren. Op dezelfde manier zullen we de opkomst zien van een nieuwe markt voor het testen van modellen en modelbeveiligingsdeskundigen, die zullen testen, certificeren en misschien enige aansprakelijkheid voor het falen van het model op zich nemen.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

achttien + vier =

The maximum upload file size: 256 MB. You can upload: image, audio, video, document, spreadsheet, interactive, text, archive, code, other. Links to YouTube, Facebook, Twitter and other services inserted in the comment text will be automatically embedded. Drop file here