- Offizieller Beitrag
Hi zusammen,
hab ich eigentlich schon mal was zum XEON geschrieben?
Herzliche Grüße
Caesar
Hi zusammen,
hab ich eigentlich schon mal was zum XEON geschrieben?
Herzliche Grüße
Caesar
Da hat der Cupra recht was die Multithreadingfähigkeit von Falcon (und auch DCS World) angeht.
Obwohl: ein Zweikerner ist vielleicht ein bisschen arg minimalistisch - da ja auch noch andere Programme im Hintergrund laufen. Wenn man mit dem Computer heute und in Zukunft NUR BMS laufen lassen will sollte das wohl reichen.
Für andere Titel, oder Applikationen würde ich da allerdings ein superdickes Veto einlegen.
Auch so muss man erstmal feststellen, dass z.B. ein 4970k in nicht ganz so vielen Szenarien schneller ist obwohl er um 1Ghz höher taktet als der 5820k (Turbo liegt hier nämlich bei mehr als 2 aktiven Kernen nur bei 3,4Ghz).
Grund ist z.B. der größere Cache - ein superwichtiger Faktor, bei 6 Kernen natürlich auch bitter notwendig.
Allerdings rechtfertigt das, wie gesagt nicht den Preis für die 2011-3er Plattform. Habe das zum Glück damals SEHR günstig ergattert! Ansonsten würde ich die neuen i5-Prozessoren empfehlen.
Wie dem auch sei, ist ja ein Grafikkarten-Thread, will den auch nicht hijacken :-).
och, ich find das gut
Eure Tips sind Gold wert, wenn ich den BMS Rechner plane....
Mein System ist von 2009, daß muss nach und nach eh erneuert werden.
Und da ist ausser GK auch Proz etc. interessant
Die GraKa Vergleichstests sind für uns leider nur bedingt aussagekräftig da diese meistens von einem Standardsetup mit einem Monitor ausgehen.
Nur ist es beim gemeinen Simulatorfreak meistens so dass ein Multimonitorsetup vorhanden oder zumindest geplant ist und in dem Fall bleibt nicht viel mehr als zu klotzen statt zu kleckern was die GPU-Leistung anbelangt.
Und macht mir meinen i7 mit integrierter GPU nicht madig: dass Teil ist Gold wert! Die drei (!!!) zusätzlichen Monitoranschlüsse am Motherboard sind ideal um weiter Displays für MFDE etc. anzuschließen. Von der Power ganz zu schweigen ...
@Tiger: Ggf. lohnt sich auch ein Blick in's offizielle Forum... z.B.: http://www.bmsforum.org/forum/showthre…ll=1#post346741
Muss aber nix heißen... vielleicht lohnt es sich halt, das noch als zusätzliche Infoquelle mitzunehmen. Der Thread ist nur ein Beispiel...
Sneakpeek
Würde ja bedeuten, daß die Nvidia Karten für BMS besser geeignet wären...
Ich glaube, AMD oder NVIDIA ist ne Glaubensfrage
Kommt wie schon oben geschrieben darauf an was man macht... bei 1 Schirm Betrieb sind Nvidia eventuell nen Ticken schneller (51 statt 50 FPS :D), bei mehreren Schirmen halt AMD.
da ich grad dabei bin mein Firmenrechner zu konfigurieren, mal in der Raum gestellte Frage :
Was ist denn eigentlich mit den "professionellen" Grafik-Karten?
Muss für ein 3D CAD Programm ja eine zertifizierte GraKa nehmen, jetzt hier bei mir eine Nvidia Quattro.
Hat da jemand von euch Erfahrungen, wie die und der Falke zusammen spielen?
Die sollen wohl irgendwie anders bessere Performance haben, nur wie und wo genau ?
In die jetzige Workstation kommt ne K620 mit 4GB Speicher ... (wie gesagt für Firmenrechner, nicht für den FluSi)
Grüße
Tom
Die Hardware bekommt halt nur die allerbesten Chips da sie sehr zuverlässig sein müssen. Ansonsten is der Chipsatz ja auch einer wie in ner Desktop Lösung. Allerdings sind deren Treiber zu 99% auf Open GL Anwendungen ausgelegt, während die GeForce Treiber auf Games und DirectX laufen.... Versuchen kannst es, aber sie wird wenn überhaupt gleich schnell sein wie ne Geforce gleichen Typs, vermutlich aber unter DirectX sogar einiges Langsamer....
Also für unsere zwei Konstruktions-Arbeitsplätze (laufen auf Autodesk Inventor 2015 bzw. 2014) hab ich damals ganz "normale" NVIDIA-Grafikkarten (schon mit ordentlicher Power natürlich!) eingebaut.
Kommt halt darauf an ob man die zusätzlichen Features den Workstation-Karten bieten überhaupt dann mit seinen Programmen ausnutzt ....
Kenne mich bei Nvidia-Karten - generell im Workstation-Segment - nicht so aus. Ich hatte mal 'nen Laptop mit einer ATI FireGL V5200. Entsprach exakt der ATI Radeon X1800. Man konnte, indem man in der *.inf-Datei des Treibers herumpfuschte - dann auch den Treiber der X1800 installieren und ein paar FPS rausholen (Lag aber eher daran, dass dieser auch häufiger aktualisiert wurde).
Soviel zu meinen Erfahrungen damit...
Hier die Ergebnisse meiner Recherche: Die Unterschiede bei aktuelleren Modellen sind wohl in den Ansprüchen in der jeweiligen Zielgruppe zu suchen...
Zwei vergleichbare Karten wären wohl die Geforce GTX 980 und die Quadro M5000. Beide haben den Maxwell-Chip GM204 an Bord. Ein High-End-Chip. Es gibt noch leistungsfähigere Modelle (Titan X bzw. 980 Ti vs. M6000) aber lassen wir die mal beiseite.
Geforce GTX 980:
Quadro M5000:
Die Quadro braucht auch etwas weniger Strom, was durch die geringere Taktung zustande kommt.
Die Spezifikationen erscheinen sinnvoll - 3D-Rendering ist schon ne speicherintensive Geschichte... Spiele werden hingegen noch eine Weile brauchen bis sie so richtig viel Speicher benötigen (4K ist hier noch der größte Treiber).
Die Unterschiede werden wohl durch die Treiber aktiviert. Es werden dann Funktionen aktiviert, die bspw. für CAD oder 2D- /3D-Bildbearbeitung sinnvoll sind und die mit Geforce-Treibern nicht funktionieren. Mit ein paar Tricks lassen sich, laut Internet, Geforce-Grafikkarten auch mit dem Quadro-Treiber betreiben...
Richtig unterschiedlich wird's dann beim Preis: die Quadro M5000 ist für so rund 2.000 Eier zu haben.
Womit das Thema, bevor man das Wort "Benchmarks" sagen kann, vermutlich vom Tisch ist.
Hier auch noch ein Artikel zur M5000:
http://www.pcgameshardware.de/Grafikkarten-G…GiByte-1167751/
Was neben der Nutzung an der Workstation so geht ist auch noch der Einsatz als zusätzliche Recheneinheit - alternativ zum Prozessor. Bestimmte Rechenaufgaben (dazu zählt um ein prominentes Beispiel zu nennen wohl auch die "Errechnung" von Bitcoins - wobei ich mich da jetzt nicht so gut auskenne) können sehr gut auf GPUs erledigt werden. Vor allem rechenintensive Aufgaben die sich sehr gut parallelisieren lassen nicht allzu viele Speicherzugriffe benötigen.
Fazit: Ich glaube es ist in diesem Fall gut für Spiele auch Grafikkarten zu benutzen die dafür gedacht ist. Das fängt bei den Treibern an (Stichwort: Game Ready) und hört beim Equipment (Stichwort: Kühlung) auf.
Es gibt natürlich bei anderer Hardware auch Ausnahmen wie den Xeon.
Ich hoffe mal das erklärt so ein zwei Sachen - war jetzt halt ein bisschen oberflächlich ...
Quellen: Nvidia.com / Wikipedia / Hörensagen