nvidia tesla t4,facebook,google,amazon,aws

La evenimentul anual GTC, compania producatoare de placi video a anuntat ca Amazon Web Services va oferi GPU-uri Nvidia Tesla T4, in instantele EC2 ale companiei.

Fiind deja disponibil in urmatoarele saptamani, EC2 G4 de la Amazon, este conceput cu gandul la workload-uri de inferenta a AI-ului.

Google a lansat, de asemenea o versiune beta pentru suport T4 pentru cloud-ul sau, in urma cu cateva luni, iar GPU-urile sunt disponibile in servere de la Cisco, Dell EMC, Hewlett Packard Enterprise, si altii.

Nvidia Tesla T4 foloseste arhitectura Turning de la Nvidia, si are 2560 de core-uti CUDA si 320 de core-uri Tensor, iar compania sustine ca placa de 75 de wati ofera 65 de teraflopi ca performanta de varf pentru FP16, 130 de teraflopi pentru INT8, si 260 de teraflopi pentru INT4.

Matt Garman, VO al serviciilor de calculatie la AWS a afirmat:” Nvidia si AWS au lucrat impreuna pentru mult timp, in incercarea de a ajuta clientii sa ruleze workload-uri AI consumatoare de cantitati mari de calculatii in cloud, si au incercat sa creeze noi si incredibile solutii AI. Odata cu noile noastre instante T4 – bazate pe G4, vom usura si vom eficientiza lucrurile din punct de vedere al costurilor pentru clienti, pentru a accelera inferenta machine learning-ului si a aplicatiilor consumatoare de resurse grafice.”

Nvidia a anuntat, de asemenea o platforma pentru dezvoltatorii care vor sa se foloseasca de GPU-urile sale pentru invatare aprofundata, machine learning si analizare de date, numita CUDA-X AI. Noua platforma este o reorganizare a mai mult de 40 de librarii Nvidia pentru accelerarea invatarii aprofundate, si a fost adoptata de majoritatea serviciilor de cloud mari, inclusiv AWS, Google Cloud Platform si Microsoft Azure.

1 COMENTARIU

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.