Bing tager på Google og viser søgeresultater 10 gange hurtigere

Indholdsfortegnelse:

Video: 40 Ultimate Word Tips og tricks til 2020 2024

Video: 40 Ultimate Word Tips og tricks til 2020 2024
Anonim

Microsofts specialiserede hardware til AI-beregning kaldes Brainwave, og den er skabt på en sådan måde at køre et neuralt netværk så hurtigt som muligt med mindst mulig forsinkelse.

Virksomheden annoncerede, at det siden brug af Brainwave lykkedes at få ti gange hurtigere ydelse fra Bings AI. Maskinlæringsmodellen styrker grundlæggende søgemaskinens funktionalitet.

Microsofts mål, der skal nås via Brainwave, er at give realtids AI-forudsigelser for apps såsom de nyeste Bing-funktioner.

Bing modtager nye funktioner

Microsoft giver også Bing et par nye funktioner, og de mest betydningsfulde, der er værd at nævne, tilbyder flere svar på spørgsmål, hvordan man skal stille spørgsmål, og støtte til at definere ord, der ikke bruges så ofte, når brugerne hover musemarkøren over dem. Disse funktioner er drevet af Brainwave.

Microsoft bruger Intels FPGA'er til at drive AI-beregning

FPGA'er er en slags tomme lerreter, som udviklere kan bruge, når de vil indsætte forskellige kredsløb ved at sende ny software. Dette indebærer en potent blanding af ydeevne og programmerbarhed.

Nu kan Microsoft gøre mere end at oprette hurtigere modeller med hardware; Virksomheden kan også bygge mere sofistikerede AI-systemer. F.eks. Er Bings Turing Prototype 1 nu ti gange mere kompleks og hurtigere takket være beregningskapaciteten tilføjet via Brainwave.

FGA'erne, der er implementeret af Microsoft, leveres med dedikerede digitale signalprocessorer om bord forbedret til kompleks AI-matematik.

Den største fordel ved FPGA'er

Den mest markante fordel ved FPGA'er i forhold til GPU'erne (som blev det foretrukne valg til AI-beregning) er, at de ikke kræver omfattende brug af batchberegninger.

En vigtig nyskabelse, der tillader Microsoft at få sådanne succesrige resultater via FPGA'er er brugen af ​​8 og 9-bit flydende datatyper, der radikalt øger ydelsen.

Intels FPGA-chips giver Bing mulighed for hurtigt at læse og analysere milliarder af dokumenter på hele nettet og give det bedste svar på dit spørgsmål på mindre end en brøkdel af et sekund.

Faktisk har Intels FPGA'er gjort det muligt for os at reducere latenstiden for vores modeller med mere end 10x, mens vi også øger vores modelstørrelse med 10x.

Brugen af ​​FPGA'er til at fremskynde AI-beregningen stammer tilbage i 2012

Microsoft begyndte at bruge FPGA'er til at forbedre hastigheden på AI-beregning for mere end seks år siden, da Bing-teamet begyndte at bruge chips. Alt dette er også gode nyheder for Intel. Virksomheden købte Altera, en FPGA-maker i 2015, og aftalen på 16, 7 milliarder dollars forsynede Intel med den nødvendige magt til at brænde Microsofts behov indtil i dag.

Vi ser frem til at se Brainwave tilgængelig via Microsoft Azure for at tilbyde kunderne mulighed for at implementere deres modeller.

Bing tager på Google og viser søgeresultater 10 gange hurtigere