Η Qualcomm ανακοίνωσε σήμερα ότι θα λανσάρει μία νέα σειρά επιταχυντών τεχνητής νοημοσύνης (AI accelerator chips), επιχειρώντας να ανταγωνιστεί ευθέως την Nvidia και την AMD, οι οποίες κυριαρχούν σήμερα στην αγορά των AI ημιαγωγών.
Η κίνηση αυτή σηματοδοτεί μία στρατηγική «στροφή» για την Qualcomm, που μέχρι σήμερα είχε επικεντρωθεί σε μικροτσίπ για κινητές συσκευές και ασύρματη συνδεσιμότητα, και όχι σε μεγάλα data centers.
Οι δύο νέοι επεξεργαστές, AI200 (αναμένεται το 2026) και AI250 (το 2027), θα διατίθενται σε εξελιγμένα συστήματα, παρόμοια με εκείνα που προσφέρουν η Nvidia και η AMD. Σύμφωνα με τη Qualcomm, τα νέα της «data center chips» βασίζονται στους Hexagon neural processing units (NPUs), τους ίδιους πυρήνες AI που χρησιμοποιούνται ήδη στα smartphones της εταιρείας.
«Θέλαμε πρώτα να αποδείξουμε τις δυνατότητές μας σε άλλους τομείς, και αφού “χτίσαμε” ισχύ εκεί, ήταν εύκολο να περάσουμε στο επίπεδο των data centers», δήλωσε ο Ντούργκα Μαλάντι, γενικός διευθυντής του τμήματος data center και edge της Qualcomm.
Νέα εποχή ανταγωνισμού στα data centers
Η είσοδος της Qualcomm στον χώρο των data centers εντείνει τον ανταγωνισμό στη γρηγορότερα αναπτυσσόμενη αγορά της τεχνολογίας, αυτή των AI servers. Σύμφωνα με εκτίμηση της McKinsey, οι παγκόσμιες επενδύσεις σε data centers θα φτάσουν τα 6,7 τρισ. δολάρια έως το 2030, με το μεγαλύτερο μέρος να κατευθύνεται σε συστήματα που βασίζονται σε AI μικροτσίπ.
Σύμφωνα με το CNBC, η Nvidia εξακολουθεί να κυριαρχεί, με πάνω από το 90% του μεριδίου αγοράς των AI GPUs και κεφαλαιοποίηση άνω των 4,5 τρισ. δολαρίων, χάρη στα μικροτσίπ που χρησιμοποιούνται για την εκπαίδευση των μοντέλων GPT της OpenAI.
Όμως, οι εταιρείες αναζητούν εναλλακτικές λύσεις. Η OpenAI ανακοίνωσε σχέδια να αγοράσει μικροτσίπ από την AMD και ενδέχεται να αποκτήσει συμμετοχή στην εταιρεία. Παράλληλα, η Google, η Amazon και η Microsoft αναπτύσσουν δικούς τους AI accelerators για τα cloud δίκτυά τους.
Επικέντρωση στην inference φάση της τεχνητής νοημοσύνης
Η Qualcomm στοχεύει περισσότερο στη φάση inference -την εκτέλεση ήδη εκπαιδευμένων AI μοντέλων- παρά στο στάδιο της εκπαίδευσης, που απαιτεί τεράστιους όγκους δεδομένων και ισχύος.
Η εταιρεία υποστηρίζει ότι τα συστήματα rack θα έχουν χαμηλότερο κόστος λειτουργίας για πελάτες όπως οι πάροχοι cloud, καταναλώνοντας περίπου 160 κιλοβάτ, ποσό αντίστοιχο με ορισμένα racks της Nvidia. Παράλληλα, θα προσφέρει τα μικροτσίπ και τα εξαρτήματά της και ξεχωριστά, για πελάτες που σχεδιάζουν δικά τους racks, όπως οι hyperscalers.
Ο Μαλάντι ανέφερε ότι ακόμα και ανταγωνιστές, όπως η Nvidia ή η AMD, θα μπορούσαν να χρησιμοποιήσουν μεμονωμένα τμήματα των συστημάτων της Qualcomm, όπως τις μονάδες επεξεργασίας CPU.
«Θέλουμε οι πελάτες μας να μπορούν να επιλέξουν. Είτε να πάρουν ολόκληρο το σύστημα, είτε να συνδυάσουν τα δικά τους εξαρτήματα με τα δικά μας», είπε χαρακτηριστικά.
Η Qualcomm δεν αποκάλυψε τιμές ούτε τεχνικές λεπτομέρειες για τον αριθμό NPUs ανά rack, αλλά υπενθύμισε τη συμφωνία του Μαΐου με τη Humain, με έδρα τη Σαουδική Αραβία, η οποία θα χρησιμοποιήσει τα νέα inferencing chips σε data centers ισχύος έως 200 MW στη Μέση Ανατολή.
Η εταιρεία επισημαίνει ότι τα νέα AI chips υπερτερούν σε κατανάλωση ενέργειας, κόστος συντήρησης και διαχείριση μνήμης, υποστηρίζοντας 768 GB RAM ανά κάρτα, χωρητικότητα μεγαλύτερη από τις αντίστοιχες προτάσεις της Nvidia και της AMD.
Διαβάστε ακόμη
Πώς θα χτίζουν στα εκτός σχεδίου οικόπεδα στα νησιά του Αιγαίου και του Ιονίου
Δρομολόγια μόνο σε αερολιμένες ζητά από τη Hoper η Αρχή Πολιτικής Αεροπορίας
Τα τουρκικά φουντούκια προκαλούν ράλι τιμών και στην ελληνική αγορά
Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα
Σχολίασε εδώ
Για να σχολιάσεις, χρησιμοποίησε ένα ψευδώνυμο.