Das ist der neue Apple Silicon Mac Pro

Nachricht

HeimHeim / Nachricht / Das ist der neue Apple Silicon Mac Pro

Jan 03, 2024

Das ist der neue Apple Silicon Mac Pro

Äußerlich sieht der Mac Pro vielleicht nicht anders aus als sein Vorgänger, aber äußerlich

Der Mac Pro sieht von außen vielleicht nicht anders aus als sein Vorgänger, aber im Inneren sind Intels Xeon-CPU und AMDs Radeon-Pro-Grafik verschwunden, und an ihrer Stelle haben wir einen neuen Chip namens M2 Ultra. Dies ist der gleiche Chip im neuen Mac Studio; Er verfügt über eine 24-Kern-CPU und eine bis zu 76-Kern-GPU und verfügt zunächst über doppelt so viel Arbeitsspeicher und SSD-Speicher wie der alte Mac Pro. Apple verspricht, dass er „dreimal schneller“ sein wird als der Intel Mac Pro. Der Speicher ist mit 192 GB maximal. Diese Statistiken stimmen alle mit dem neuen Mac Studio überein – das einzige, was Sie durch das größere Gehäuse erhalten, sind Erweiterungsmöglichkeiten und mehr Anschlüsse.

Der springende Punkt bei einem Mac-Tower ist die Unterstützung herkömmlicher Erweiterungskarten, und das bedeutet normalerweise separate GPUs. Apple hat einige Erweiterungskarten vorgeführt, aber keine davon war eine Grafikkarte. Es hört sich so an, als würden Sie die integrierte GPU des M2 Ultra verwenden. Es wäre ein riesiges Unterfangen gewesen, echte Grafikkarten mit einem ARM-Chip zum Laufen zu bringen – zunächst einmal gibt es keine ARM-Treiber. Selbst für die Nicht-GPU-Optionen wird die Kompatibilität ein interessantes Problem sein. Apple nennt DSP-Karten (Digital Signal Processing), SDI-I/O-Karten (Serial Digital Interface) und zusätzliche Netzwerk- und Speichermöglichkeiten als PCI-Express-Kartenmöglichkeiten.

Apples Übergang von Intel zu ARM ist nun abgeschlossen und es lässt sich nicht leugnen, dass sie fantastische Arbeit geleistet haben. Die Konkurrenz holt zwar auf, aber vor allem das Mac-Laptop-Sortiment ist im besten Zustand, den es je gab.

Folgen Sie mir auf Twitter @thomholwerda

Das ist sehr gut, aber Sie würden im Wesentlichen 3.000 US-Dollar für ein Motherboard und ein Gehäuse bezahlen.

Hier ist das Mac Studio (4000 $):https://www.apple.com/shop/buy-mac/mac-studio/24-core-cpu-60-core-gpu-32-core-neural-engine-64gb -Speicher-1 TB

Und hier ist der neue Mac Pro (7.000 $):https://www.apple.com/shop/buy-mac/mac-pro/tower

Gleiche CPU, GPU, RAM und SSD. Unterstützt die gleiche Anzahl von Displays. Beide verfügen über die gleiche WLAN- und Ethernet-Option (10 Gbe).

Der einzige Unterschied besteht in der Erweiterung. Es gibt mehr USB4-Anschlüsse (Typ C): 8 gegenüber 6, und USB-A-Anschlüsse: 3 gegenüber 2 und HDMI-Anschlüsse: 2 gegenüber 1. Und natürlich gibt es eine kostenlose Maus!

(Okay, es besteht die Möglichkeit, sieben PCIe-Karten hinzuzufügen, was für eine Workstation respektabel ist. Aber auch hier ist bis auf das Motherboard fast alles gleich.)

Ich glaube nicht, dass sie PCI-e-GPUs unterstützen, daher ist dieser Mac Pro möglicherweise noch eher ein Nischenmodell als der vorherige. Da es sich im Grunde nur um ein Mac Studio mit PCI-Erweiterung handelt, kann es sein, dass es nur wenige Anwendungsfälle gibt, die vom Studio nicht abgedeckt werden.

Ich hatte einen kräftigeren SoC erwartet, insbesondere angesichts der thermischen Hülle des Gehäuses.

Um ehrlich zu sein, nutzen sie den Leistungs-/Kühlspielraum für mögliche Upgrades. Aber dann kostet die Maschine leicht mehr als 10.000 US-Dollar

Was die GPUs angeht: Ja, es sei denn, sie machen mit Nvidia gleich, ich sehe keine Treiber, die die aktuelle Situation beheben. Und obwohl es wirklich nett wäre, 7(?) Nvidia-GPUs in voller Größe für maschinelles Lernen zu haben, stellt es doch die eigenen Tensorkerne des M2 in Frage.

Sogar die Lagerung wäre übertrieben. Angenommen, Sie würden PCIe x4 NVME und möglicherweise Port-Multiplikatoren (Bifurkation) verwenden, müsste man über 7 x 4 x 4 TB (größte Größe, die ich heute kenne) = 112 TB Speicher verfügen, um diese Ports zu sättigen. Und das ist ein Overkill. (Ich meine, es gibt Anwendungsfälle, die einen solchen Speicher benötigen, aber an diesem Punkt ist es besser, einen dedizierten Server zu verwenden.)

Rückblickend könnte dies ein Zeichen für die Hoffnung auf eine zukünftige GPU-Erweiterung sein. (Ich habe AMD- oder Intel-GPUs nicht einbezogen, da sie im maschinellen Lernen derzeit praktisch ungenutzt sind.)

Ich denke, dass zwischen Apple und NVIDIA immer noch viel böses Blut herrscht, daher bezweifle ich, dass die KI-Bibliotheken von CUDA es auf macOS/ARM schaffen werden.

Es handelt sich um ein Produkt mit so geringem Volumen, dass ich glaube, dass nicht einmal AMD oder Intel die Zeit und Mühe investieren wollen, um Apples Geschäft für die Unterstützung diskreter GPUs auf Apple Silicon zu gewinnen.

Mich würde interessieren, wie die Topologie dieser PCIe-Steckplätze aussieht, da frühere AS über recht begrenzte PCIe-Controller und Phys verfügten.

Ja, Intel wird Apple wahrscheinlich keinen Gefallen tun, selbst wenn das Unternehmen eine anständige separate Grafikkarte herstellen könnte. AMD ist ihre einzige Hoffnung. Es fehlt eine Nvidia-Auflösung.

Ich hatte einen kräftigeren SoC erwartet, insbesondere angesichts der thermischen Hülle des Gehäuses.

Ja. Ich hatte selbst etwas ganz anderes erwartet. SoC mit Sockel, vom Benutzer austauschbarer RAM (vielleicht schwierig mit dem SoC, aber ich bin mir sicher, dass Sie das schaffen würden …), mehrere Sockel für SoCs

Grundsätzlich hatte ich erwartet, dass Sie es mit allem ausstatten können, von einem einfachen Standard-M2 bis hin zu mehreren (2? 4?) M2 Ultras, mit Unterstützung für Terabytes an vom Benutzer austauschbarem RAM. Verdammt, ich wäre mit austauschbarem RAM zufrieden gewesen, selbst wenn es proprietär wäre, würden die Klonhersteller einigermaßen schnell kompatible Produkte herstellen.

Der neue ARM Mac Pro scheint irgendwie noch eingeschränkter zu sein als der Mülleimer-Mac.

Der König,

Ja. Ich hatte selbst etwas ganz anderes erwartet. SoC mit Sockel, vom Benutzer austauschbarer RAM (vielleicht schwierig mit dem SoC, aber ich bin mir sicher, dass Sie das schaffen würden …), mehrere Sockel für SoCs

Grundsätzlich hatte ich erwartet, dass Sie es mit allem ausstatten können, von einem einfachen Standard-M2 bis hin zu mehreren (2? 4?) M2 Ultras, mit Unterstützung für Terabytes an vom Benutzer austauschbarem RAM.

Ich stimme zu. Apples „Mac Pro“-Kategorie, die einst dafür bekannt war, Power-Usern Optionen und Flexibilität zu bieten, wurde neu erfunden und wird immer eingeschränkter. Meiner Meinung nach ist es schwieriger zu verstehen, für wen das ist. Während jemand argumentieren kann, dass sich Unternehmen und Profis den Einstiegspreis von 7.000 US-Dollar für den Mac Pro leisten können, gehe ich davon aus, dass von High-End-Workstations erwartet wird, dass sie auf die von Ihnen beschriebene Weise äußerst flexibel sind und über Jahre hinweg problemlos aufgerüstet werden können. Das ist das Gegenteil.

Verdammt, ich wäre mit austauschbarem RAM zufrieden gewesen, selbst wenn es proprietär wäre, würden die Klonhersteller einigermaßen schnell kompatible Produkte herstellen.

Der neue ARM Mac Pro scheint irgendwie noch eingeschränkter zu sein als der Mülleimer-Mac.

Persönlich wäre ich mit proprietärem RAM nicht zufrieden. Betrachten Sie das verwandte Thema des proprietären Speichers von Apple auf dem Mac Pro 2019. Konnten Dritte das DRM umgehen, um Klone zu erstellen? Ich habe gesucht, aber nichts gefunden. Und selbst wenn sie es geschafft hätten, wie sicher können Benutzer sein, dass Apple die Klone nicht mit einem zukünftigen Update blockieren würde?

https://everymac.com/systems/apple/mac_pro/mac-pro-tower-faq/how-to-upgrade-mac-pro-tower-rackmount-ssd-storage.html

Da die SSDs vom T2-Sicherheitschip von Apple gesteuert werden, ist es leider unwahrscheinlich, dass erschwinglichere Ersatzprodukte von Drittanbietern für diese Module erhältlich sein werden.

Soweit ich weiß, verfügen NVMe-Lösungen von Drittanbietern für den Mac Pro über eigene PCI-Zusatzkarten und benötigen eigene MacOS-Treiber.

Interne SSD-Upgrade-Optionen von Drittanbietern (PCIe)

Da die „2019“-Mac-Pro-Modelle glücklicherweise über acht PCIe-Steckplätze verfügen, konnten Drittanbieter PCIe-Karten mit schnellem NVMe-Speicher für buchstäblich Hunderte von Dollar weniger herausbringen als die Standard-Upgrade-Optionen von Apple.

Ich hatte zuvor gelesen, dass einige Benutzer den „Systemintegritätsschutz“ von macOS deaktivieren mussten, um Treiber von Drittanbietern zu laden. Ich frage mich, ob diese PCI-Karten mit dem m2 Mac Pro kompatibel sind? Ehrlich gesagt fände ich es als jemand, der mein ganzes Leben lang an herstellerunabhängige Standards gewöhnt ist und in der Lage ist, Hardware von der Stange zu installieren, äußerst ärgerlich und regressiv, auf proprietäre Hardware umzusteigen, während ein einziger Anbieter so viel Kontrolle über meine Upgrade-Optionen hat.

Und niemand wird jemals PCIe-Karten dafür herstellen (ok, Apple wird am Anfang wahrscheinlich eine Handvoll herausbringen und sie 6 Jahre lang nie wieder anfassen, wie das Mülleimer-Modell). Wer würde das tun, wenn der Hauptzweck ihrer Metal-API darin besteht, GPUs von Drittanbietern auszusperren?

Ich habe den Verdacht, dass sich in der Blackbox im Grunde ein kleiner Mac befindet, der über ein paar Thunderbolt-Kabel mit dem „Motherboard“ verbunden ist, und dass das Motherboard nur ein großer Hub ist, der keine PCIE-Karten unterstützt

Sie benötigen keine Kabel, wenn sie bereits für das Design verantwortlich sind.

Es wären nur erweiterte Spuren auf dem Motherboard.

Thom Holwerda,

Apples Übergang von Intel zu ARM ist nun abgeschlossen und es lässt sich nicht leugnen, dass sie fantastische Arbeit geleistet haben. Die Konkurrenz holt zwar auf, aber vor allem das Mac-Laptop-Sortiment ist im besten Zustand, den es je gab.

Es erscheint verfrüht, ohne Bewertungen und verifizierte Benchmarks zu sagen: „Sie haben fantastische Arbeit geleistet.“ Ich habe das Gefühl, dass Apple zu oft in der Presse viel zu viel Spielraum eingeräumt wird, bevor Daten eingehen. Vielleicht haben sie fantastische Arbeit geleistet, aber das hängt sicherlich davon ab, wie gut es sich tatsächlich in der Praxis schlägt, oder?

Toms Hardware geht davon aus, dass m2 Ultra 20 % schneller sein könnte als m1 Ultra, und wenn die Benutzererfahrung dies zeigt, dann ist das gut.https://www.tomshardware.com/news/m2-ultra-mac-studio-specs-price-release -Datum

Der M2 Ultra-Chip verfügt über 24 CPU-Kerne (16 Performance-Kerne und 8 Effizienz-Kerne) für eine 20 % schnellere Leistung als der M1 Ultra, mit Optionen für bis zu 76 GPU-Kerne.

Meiner Meinung nach ist die Unfähigkeit, dedizierte GPUs hinzuzufügen, wirklich enttäuschend, wenn man bedenkt, dass dies einer der Hauptvorteile des Formfaktors des Mac Pro ist. Ich verstehe, dass Apple keine Hardware mehr auslagern möchte, aber es sieht so aus, als ob MacPro-Benutzer benachteiligt werden, wenn sie für die Arbeit mit KI und Renderfarmen auf die iGPU beschränkt sind, während Nicht-Apple-Benutzer viel mehr Skalierbarkeit haben. Ich gehe davon aus, dass Apple in Sachen GPU irgendwann mehr bieten muss, aber wer weiß, wie lange sie warten müssen.

Es wäre interessant gewesen, wenn Apple eine Zusatzkarte basierend auf seiner GPU angeboten hätte und diese zusätzlichen Steckplätze tatsächlich etwas wert gemacht hätte, aber na ja.

Drumhellar,

Es wäre interessant gewesen, wenn Apple eine Zusatzkarte basierend auf seiner GPU angeboten hätte und diese zusätzlichen Steckplätze tatsächlich etwas wert gemacht hätte, aber na ja.

Ja, wir haben darüber für den M1 gesprochen. Theoretisch könnten sie eine Art M2-GPU-Zusatzkarte mit dedizierter Leistung und Speicher herstellen, die sich viel mehr wie andere dedizierte GPUs verhält und skaliert. AMD- und NVIDIA-Entwickler halten dies für selbstverständlich, aber Apple hat sich mit dem Shared/Unified-Memory-Modell irgendwie in die Enge getrieben. Grundsätzlich kann Software natürlich so umgeschrieben werden, dass sie GPUs mit dediziertem Speicher unterstützt. Aber wenn man bedenkt, dass diese Mac-Profis einen Einstiegspreis von 7.000 US-Dollar haben (plus was auch immer diese hypothetische PCI-Zusatz-GPU kosten würde), wie viele Mainstream-Entwickler würden sich dann überhaupt die Mühe machen, auf solche Nischenhardware abzuzielen? Ich bin mir nicht sicher, aber es scheint mir, dass der beste Weg, die Softwareunterstützung für diskrete GPUs zu fördern, darin besteht, diskrete GPUs in einige MBP-Laptops einzubauen.

Das wird in naher Zukunft vielleicht nicht passieren, aber ich glaube schon, dass Apple diese Brücke irgendwann überqueren muss, wenn man anspruchsvolle Kunden nicht an Plattformen verlieren will, die erweiterbare GPUs anbieten.

Das Volumen ist so gering, dass es sich nicht lohnt, ein GPU-spezifisches Siliziumteil herzustellen, geschweige denn ein Board darum herum aufzubauen.

javiercero1,

Das Volumen ist so gering, dass es sich nicht lohnt, ein GPU-spezifisches Siliziumteil herzustellen, geschweige denn ein Board darum herum aufzubauen.

Oder sie könnten die gleichen m2-Chips verwenden, die sie bereits haben, und sie einfach in einem Cluster mit Hochgeschwindigkeitsverbindungen zusammenfassen. Ich stimme zu, dass Apple möglicherweise nicht daran interessiert ist, diesen Markt anzusprechen, aber wenn Apple anderen OEMs erlauben würde, ihre m2-Chips zu verwenden, gäbe es mit ziemlicher Sicherheit auch Dritte, die daran interessiert wären. Leider wird Apple dies wahrscheinlich nicht zulassen, aber es gäbe interessante Möglichkeiten für Innovationen, wenn sie es täten.

@ Alfman

Diese Dinge verkaufen sich nicht einfach wie von Zauberhand. Sie benötigen viel Unterstützung, insbesondere in Bezug auf Fahrer, Kundenservice/-engagement usw. Dinge, die überhaupt nicht Teil des Geschäftsmodells von Apple sind und auch nicht über die Unternehmenskultur dafür verfügen. Im Großen und Ganzen wäre es zu viel Investition für eine geringe Rendite erforderlich.

Apple macht AS, um seine Dienste und Hardware zu verkaufen. Sie scheinen entschieden zu haben, dass die Unterstützung diskreter GPUs kein Anwendungsfall mit ausreichender Rendite für die Investition ist. Dieser Markt wird also woanders hingehen. Es gibt sowieso viel bessere Alternativen.

javiercero1,

Diese Dinge verkaufen sich nicht einfach wie von Zauberhand. Sie benötigen viel Unterstützung, insbesondere in Bezug auf Fahrer, Kundenservice/-engagement usw. Dinge, die überhaupt nicht Teil des Geschäftsmodells von Apple sind und auch nicht über die Unternehmenskultur dafür verfügen. Im Großen und Ganzen wäre es zu viel Investition für eine geringe Rendite erforderlich.

Ich habe nicht davon gesprochen, dass Apple es selbst macht, denn ich sagte bereits: „Ich stimme zu, dass Apple möglicherweise kein Interesse daran hat, diesen Markt anzusprechen.“ Dritte wären jedoch sehr interessiert und bauen bereits Cluster mit anderen ARM-CPUs auf. Ich habe keinen Zweifel daran, dass Interesse an OEM-Anwendungen für m2 bestehen würde, wenn Apple ihnen dies erlauben würde.

Apple macht AS, um seine Dienste und Hardware zu verkaufen. Sie scheinen entschieden zu haben, dass die Unterstützung diskreter GPUs kein Anwendungsfall mit ausreichender Rendite für die Investition ist. Dieser Markt wird also woanders hingehen.

Früher konnten Benutzer eGPUs anschließen, um ihre Rendering-Kapazität zu erweitern. Ich denke, dass der GPU-Mangel ein wachsendes Problem für Apple-Benutzer sein wird.

Es gibt sowieso viel bessere Alternativen.

Gibt es bessere ARM-Prozessoren als Apples m1/m2? Wenn nicht, dann denke ich, dass es Nachfrage gibt. Ob Apple sich für eine Teilnahme entscheidet, ist eine andere Sache.

@ Alfman

Die „Dritten“ sind die „Kunden“, von denen ich gesprochen habe. Apple muss ihnen immer noch Support für ihre SoCs bieten, was Treiber, Technik/Systemintegration betrifft, ganz zu schweigen von den Vertriebskanälen, in denen Apple derzeit NULL Erfahrung hat. Es macht also überhaupt keinen Sinn, dass sie ihre Zeit verschwenden Anstrengung in diesem Markt. Zumal die Kapazität ihrer SoC-Produktion begrenzt ist.

Workstation wird nicht von ISA definiert. Wenn Sie derzeit anspruchsvolle GPU-Rechnungen durchführen möchten, dreht sich alles um CUDA, und CUDA funktioniert immer noch am besten in einer Linux-Umgebung (oder in etwas geringerem Maße unter Windows). Apple ist also auch nicht wirklich an diesem Markt interessiert, da NV bereits zu fest verankert ist.

Es verheißt nichts Gutes, dass Apples eigene Website es nur mit der Vorgängerversion vergleicht, was bedeutet, dass es wahrscheinlich nicht nur mit einer RTX 4090 mithalten kann. Sehr problematisch, wenn man den Preis bei 6.000 US-Dollar festlegt und von Unternehmen erwartet, dass sie dafür Kosten tragen.

dunkel2,

Es verheißt nichts Gutes, dass Apples eigene Website es nur mit der Vorgängerversion vergleicht, was bedeutet, dass es wahrscheinlich nicht nur mit einer RTX 4090 mithalten kann. Sehr problematisch, wenn man den Preis bei 6.000 US-Dollar festlegt und von Unternehmen erwartet, dass sie dafür Kosten tragen.

Ja, absolut. Apple ist dafür berüchtigt. Wenn sie sich mit Wettbewerbern vergleichen, zensieren sie häufig die verglichenen Daten, Verfahren, Benchmarks und Hardwaremodelle, um es niemandem zu ermöglichen, ihre Ergebnisse unabhängig zu reproduzieren.

Es wäre ein Vergleich zwischen Äpfeln und Birnen. Beide haben sehr unterschiedliche Designziele.

Was die Rohleistung angeht, denke ich, dass 4090 einen deutlichen Vorsprung haben würde. Es ist außerdem mit den meisten modernen Gaming-Geräten kompatibel (bei denen Apple-Silizium fast vollständig fehlt) und verfügt über mehr Funktionen (wie DLSS).

Allerdings bietet M2, insbesondere M2 Ultra, viel besseren RAM. Der einheitliche RAM reicht bis zu 192 GB RAM, während 4090 bei 24 GB hängen bleibt: https://www.techpowerup.com/gpu-specs/geforce-rtx-4090.c3889. Dies ist ein wesentlicher Unterschied für einige Arbeitslasten, wie zum Beispiel maschinelles Lernen, das viel Speicher beansprucht. (Zumindest derzeit).

Darüber hinaus ist die RAM-Bandbreite ungefähr aufgeholt: 800 GB/s gegenüber 1.008 GB/s.

Aus diesem Grund erwähnte Apple LLMs. Sie erwähnen dies nicht, aber Empfehlungssysteme, die auf tiefer Einbettung basieren, sind ebenfalls speicherintensiv. Sie alle würden erheblich von der Einrichtung von M2 profitieren.

(Als Referenz: Die A100-Karte mit 80 GB Speicher von Nvidia kostet etwa 16.000 US-Dollar.)

Sukru,

Was die Rohleistung angeht, denke ich, dass 4090 einen deutlichen Vorsprung haben würde. Es ist außerdem mit den meisten modernen Gaming-Geräten kompatibel (bei denen Apple-Silizium fast vollständig fehlt) und verfügt über mehr Funktionen (wie DLSS).

Allerdings bietet M2, insbesondere M2 Ultra, viel besseren RAM. Der einheitliche RAM reicht bis zu 192 GB RAM, während 4090 bei 24 GB hängen bleibt:

Ich würde gerne Benchmarks sehen, um die Leistung bei verschiedenen RAM-Dichten zu vergleichen, aber vorausgesetzt, die Leistung nimmt nicht zu stark ab, könnte das in Kombination mit einer GPU der Spitzenklasse sehr interessant sein. Das ist die Sache, ihre ansonsten starke Plattform wird durch die eher begrenzte GPU-Hardware im Stich gelassen. Darüber hinaus unterstützen sie keine offenen Standards wie Vulkan, was Apple-Benutzern schadet. Meiner Meinung nach sollten sie einfach das Kriegsbeil begraben und den Besitzern die Nutzung der besten GPUs auf dem Markt ermöglichen. Mit einer riesigen Menge an RAM mit geringer Latenz hätte es tatsächlich ein sehr überzeugendes System sein können. Ich denke, ich wäre mit ihren CPUs zufrieden, aber mit ihren GPUs enttäuscht. Wer weiß, vielleicht liefern sie in Zukunft bessere GPUs oder auch nicht.

Es ist unwahrscheinlich, dass Apple damit einen Teil des KI-Marktes erobern wird. Erstens ist der Formfaktor kein Rackmount-Server. Zweitens ist bekannt, dass die Metal-API keine doppelte Gleitkommazahl unterstützt. Drittens wird Nvidia nicht durch die Bereitstellung des G-Teils der GPU in seinen Unternehmensangeboten behindert. Sie können einfach Karten anbieten, die reine KI-Hardwarebeschleunigung bieten und sonst nichts.

Alfmann,

Die „Entschuldigung“ von Apple ist, dass Metal etwa zwei Jahre älter als Vulkan ist. Auf jeden Fall gibt es einen Open-Source-Ansatz, um diese Lücke zu schließen: https://github.com/KhronosGroup/MoltenVK. Aber sie stoßen häufig auf schwierige Probleme.

dunkel2,

Diese können weiterhin für LLM-Inferenz verwendet werden, was auf aktuellen Consumer- oder sogar Workstation-GPUs praktisch unmöglich ist. Sie sind etwa 100 GB groß: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard

Und dann ist da noch das:https://www.apple.com/shop/buy-mac/mac-pro/rack

Für die Rack-Version müssen Sie jedoch weitere 1.000 US-Dollar ausgeben.

Sukru, IIRC, Vulkan basiert auf AMDs Mantle-Anstrengungen, die sowohl vor Apples Metal als auch vor Microsofts DX12 entstanden sind.

Apples Ausrede ist hier ebenso wenig gültig wie im Hinblick auf Lightning, das älter als USB-C war.

Apples Übergang von Intel zu ARM ist nun abgeschlossen und es lässt sich nicht leugnen, dass sie fantastische Arbeit geleistet haben.

Nein, sie haben es vermasselt. Nur weil sie so tun, als gäbe es keine Thunderbolt-eGPUs und PCI-E-GPUs, heißt das nicht, dass es sie nicht gibt. Dieses Problem besteht seit der Einführung des ersten Apple Silicon-Chips, und Apple tanzt seitdem um das Problem herum, und es scheint, als seien sie hier mit ihren vom iPad abgeleiteten ARM64-Chips an eine Designgrenze gestoßen. Mit dem Mac Studio haben sie einen Pass bekommen, da es sich nicht um einen Mac Pro handelt, aber wollen sie uns wirklich glauben machen, dass ein Profi, der an ein Paar Radeon W6900X-GPUs oder ein Quartett W6800X-GPUs (2× 2) Würden Sie mit einem Paar SoC-GPUs im M2 Ultra zufrieden sein, egal wie überwachsen? Ich verstehe, warum sie angesichts des begrenzten Anteils des Mac Pro im Vergleich zu anderen Macs kein Geld für die Lösung des Problems ausgeben wollen, aber ich bin etwas bescheiden darüber, dass der künftige Intel-basierte Mac Pro die letzte echte MacOS-Workstation sein würde wertgeschätzt werden statt all der Prahlerei.

Keine „echte“ schottische Workstation.

Ich gehe davon aus, dass die Anzahl der von Apple verschobenen Mac Pros lächerlich gering ist und AMD wahrscheinlich nicht bereit ist, noch mehr Zeit/Arbeit in die Entwicklung weiterer GPUs für den macOS-Markt zu investieren.

Ehrlich gesagt klingt es so, als würde Apple den Markt für diskrete GPU-Workstations einfach Windows/Linux überlassen. Die AS-NPUs eignen sich gut zum Ausführen von Modellen, nicht unbedingt zum Trainieren. Es hört sich so an, als würden sie sich nicht einmal die Mühe machen, in den allgemeinen KI-Entwicklungsmarkt einzusteigen, oder zumindest nicht in den Markt, der sich mit dem Training riesiger Modelle beschäftigt. Außerdem kümmern sie sich nicht um den High-End-3D-Pro-Markt.

Hört sich so an, als ob Apple davon ausgeht, dass es sich bei seinen Workstations hauptsächlich um Final Cut Pro- oder Logic-Arbeitsplätze oder ähnliche professionelle AV-Anwendungsfälle handelt.

In jedem Fall. Wenn Sie High-End-KI-Entwicklung betreiben möchten, besorgen Sie sich einfach eine anständige x86-Linux-Workstation mit einigen leistungsstarken NV-GPUs und machen Sie Feierabend. Dieser Markt ist derzeit mit dem CUDA/Linux-Stack in der Enge.

Zustimmen. Apple hat den Servermarkt bereits verlassen, und der eigentliche Workstation-Markt steht kurz davor. Sie machten den ARM-basierten Mac Pro hauptsächlich, um behaupten zu können, dass sie vollständig in den ARM-Bereich gewechselt waren. Es bedeutet im Grunde, viel Geld für die Möglichkeit auszugeben, einige Nischen-PCIe-Karten an die Rechenleistung des Mac Studio anzuschließen. Die nächste Generation wird es wahrscheinlich durch ein externes Gehäuse ersetzen, das an den Mac Studio angeschlossen wird – was im Wesentlichen ein richtig gemachter „Mülleimer“-Mac Pro ist.

Es ist wahrscheinlich enorm kompliziert, die erforderlichen Leitungen für eigenständige Grafikkarten hinzuzufügen, aber ich bin mir sicher, dass sie es irgendwann schaffen werden. Integrierte Lösungen sind nicht in der Lage, alle Arbeitslasten zu bewältigen, aber offenbar ist die Nachfrage nach mehr nicht allzu groß – zumindest in der Mac-Blase.

Das ist also das Ende der Intel-Macs und damit auch der Hackintoshs.

1. Letzte verkaufte Intel-Macs (Mac Pro) im Jahr 20232. Fügen Sie 5 Jahre Betriebssystem-Updates hinzu (macOS 14 ist gerade herausgekommen und unterstützt keine Geräte, die älter als 5,5 Jahre sind)3. Fügen Sie 2 Jahre Sicherheitsupdates zur letzten unterstützten Betriebssystemversion hinzu

Daher denke ich, dass der Intel Mac Pro und Hackintosh-Computer im Jahr 2030 die Unterstützung verlieren werden.

Ich denke, es wird früher sein. Der Übergang von PPC zu x86 war schneller. Tiger war die erste x86-kompatible Version, gefolgt von Leopard, das immer noch PPC-kompatibel war, gefolgt von Snow Leopard, das die PPC-Kompatibilität verlor. Ich erwarte bereits, dass Sonoma die letzte oder vorletzte x86-Version sein wird. Schade, aber wir hatten einen guten Lauf.

Was Hackintoshes betrifft, sollte es früher sein, da es, wenn überhaupt möglich, schwierig sein wird, die T2-Chip-Anforderung zu erfüllen.

Der Übergang zu ARM ist erst abgeschlossen, wenn Apple mit der ordnungsgemäßen Unterstützung interner Peripheriegeräte wie dedizierter Grafikkarten beginnt.

sj87,

Der Übergang zu ARM ist erst abgeschlossen, wenn Apple mit der ordnungsgemäßen Unterstützung interner Peripheriegeräte wie dedizierter Grafikkarten beginnt.

Ihr Standpunkt gilt für Benutzer, die keinen Upgrade-Pfad haben, aber Apple selbst sieht das möglicherweise nicht so. Sie beabsichtigen möglicherweise, intensive GPU-Anwendungsfälle ganz aufzugeben, sodass sie den ARM-Umstieg ohne GPU-Upgrade-Pfad als offiziell abgeschlossen betrachten.

Die große Frage, die ich habe, ist, wie viele echte Apple-Kunden sich dafür interessieren? Die Antwort wird darüber entscheiden, ob Apple es sich leisten kann, sie einfach abzulehnen, oder ob diese Benutzer bei Apple genug Einfluss haben, um in Zukunft bessere dedizierte GPUs zu fordern. Tatsache ist, dass eine nicht unerhebliche Anzahl von Apple-Benutzern kreative Typen sind, die MacOS-Fans sind, aber ihre Zeit ist Geld und Apples fehlende GPU-Upgrade-Pfade sind ein wunder Punkt.

Wie viel Zeit darf ein MacOS-Profi verlieren? Zugegebenermaßen ist es keine leichte Wahl, insbesondere da Microsoft Windows weniger attraktiv macht und stärker an die Version gebunden ist, während Linux schwieriger zu unterstützen ist und nicht über so viel Software verfügt.

Ich denke, Nvidia hätte Apple verklagen können, weil sie ihre Treiber nicht signiert haben (und könnte dies wahrscheinlich auch heute noch tun, wenn es um ARM-Macs geht), aber nachdem Apple seinen 3D-Workstation-Markt mit dem Mülleimer zerstört hatte, schätzte Nvidia wahrscheinlich, dass die Klage mehr kosten würde als zukünftige GPU-Verkäufe für Mac-Workstation-Clients (insbesondere, da Apple vorzieht, „OpenCL fallen zu lassen“ und andere Dinge, die es für konkurrierende GPUs nur schwieriger machen würden). Apple hat sich auf die Videobearbeitung und die Rolle als Statussymbol beschränkt.

Sie müssen angemeldet sein, um einen Kommentar abzugeben.