07-01-2020 5:21 am Gepubliceerd door Nederland.ai Laat uw gedicht achter

Tijdens een persconferentie op de 2020 Consumer Electronics Show gaf Intel een kleine update over de lopende AI- en machineleren hardwareversnelling. De details waren een beetje moeilijk om langs te komen in de perstijd, maar platformen groep executive vice-president Navin Shenoy previewden de prestatiesverbetering die zal aankomen met de derde generatie Xeon Scalable processor familie van de chipmaker, codenaam Cooper Lake.

De 14-nanometer (14nm++) Cooper Lake, die beschikbaar zal zijn in de eerste helft van 2020, zal tot een 60% toename van zowel AI-inferencing als trainingsprestaties opleveren. Dat is vergeleken met de 30 keer betere prestaties van Intel op het gebied van deep learning inferencing in 2019 vanaf 2017, het jaar dat het bedrijf zijn eerste processor uitbracht met AVX-512, een set van 512-bits uitbreidingen van de 256-bits Advanced Vector Extensions SIMD instructies.

Het leveren van deze verbetering is gedeeltelijk DL Boost, die een reeks van x86 technologieën omvat die zijn ontworpen om AI visie, spraak, taal, generatieve en aanbeveling werklast te versnellen. Het zal de bfloat16 (Brain Floating Point) ondersteunen, te beginnen met Cooper Lake producten, een getalformaat dat oorspronkelijk door Google werd gebruikt en dat in de derde generatie van de op maat ontworpen Tensor Processing Unit AI-versnellerchip werd geïmplementeerd.

Bij wijze van verfrissing, kenmerkt het Meer van de Kuiper tot 56 bewerkerskernen per contactdoos, of tweemaal de telling van de bewerkerskern van de tweede-gen Schaalbare Xeon-spaanders van Intel. Ze hebben een hogere geheugenbandbreedte, een hogere AI-inferentie, en trainingsprestaties bij een lager vermogen, evenals platformcompatibiliteit met de aankomende 10-nanometer Ice Lake processor.

Intel-producten worden gebruikt voor meer datacenter runs op AI dan op enig ander platform, beweert het bedrijf.

De toekomst van Intel is AI. Zijn boeken impliceren zo veel – de AI-chipsegmenten van het bedrijf van Santa Clara inkepingen $3.5 miljard in opbrengst dit jaar, en het verwacht de marktkans om 30% jaarlijks van $2.5 miljard in 2017 tot $10 miljard tegen 2022 te groeien. In het perspectief van de AI-chipsegmenten was de omzet van AI in 2017 gestegen van 1 miljard dollar per jaar. En Intel verwacht dat de AI-siliciummarkt tegen 2024 meer dan 25 miljard dollar zal bedragen.

Vroeger dit jaar kocht Intel Habana Labs, een Israà “lische ontwikkelaar van programmeerbare AI en machine leren versnellers voor cloud datacenters, voor een geschatte $2 miljard. Het kwam na de aankoop van het in San Mateo gevestigde Movidius, dat gespecialiseerde low-power processor chips voor computervisie ontwerpt, in september 2016. Intel kocht in 2015 Field Programmable Gate Array (FPGA) fabrikant Altera en een jaar later verwierf het bedrijf Nervana, waarmee het zijn hardware-platform aanbod invult en de weg vrijmaakt voor een geheel nieuwe generatie AI-versneller-chipsets. En in Augustus, greep Intel omhoog Vertex.ai, een opstarten dat een platform-diagnostische AI modelreeks ontwikkelt.

Tags : , , ,

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

1 × twee =

The maximum upload file size: 256 MB. You can upload: image, audio, video, document, spreadsheet, interactive, text, archive, code, other. Links to YouTube, Facebook, Twitter and other services inserted in the comment text will be automatically embedded. Drop file here