Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr Forum



Machen Dual-Socket Systeme noch Sinn?



Die Hardware ist tot, es lebe die Hardware. Fragen zu Optimierung von Schnittsystemen, den idealen Komponenten sowie Verkabelungen, RAID...
Antworten
Valentino
Beiträge: 4822

Machen Dual-Socket Systeme noch Sinn?

Beitrag von Valentino »

Habe mich die letzte Tage mal mit Dual-Socket Systemen auf 2011-3 Basis auseinander gesetzt und sehe da irgendwie keinen echten Bedarf mehr.

Leider sind die meisten neuen 2011-3 Dual-Socket Boards nur mit den Xeon Prozessoren der E5-2600 v3 Reihe kompatibel und diese dazu extrem teuer oder nur irgendwo zwischen 1,6 und 2,4GHz getaktet.
Warum solche Boards nicht mit der E5-1600 v3 Reihe kompatibel sind, bleibt mir ein Rätsel.
Schon zwei E5-1630 V3 (420€) mit 3,7GHz Basistakt wären definitiv schneller und günstiger wie die 8-Kerner i7-5960X (1.130€) oder der Xeon E5-1680 v3 (2.000€).
Bitte korrigieren, wenn ich mich da irre!

Dazu kann man die Xeon CPUs nicht übertakten und beim DDR4 Speicher ist "schon" bei 2.133MHz das Ende der Fahnenstange erreicht.

Ist das alles gewollte Produktpolitik von Intel oder habe ich da irgendwo einen Denkfehler?

Wird es auch Dual-Socket Boards geben, die kompatibel mit den neue 2011-3 i7 CPUs kompatibel sind?



rudi
Administrator
Administrator
Beiträge: 1479

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von rudi »

Valentino hat geschrieben:
Ist das alles gewollte Produktpolitik von Intel oder habe ich da irgendwo einen Denkfehler?

Wird es auch Dual-Socket Boards geben, die kompatibel mit den neue 2011-3 i7 CPUs kompatibel sind?
Intel hat sich schon immer die DUAL Prozessor Xeons (in diesem Fall E5-2xxx) mit Gold aufwiegen lassen, während die Prozessoren für einen Sockel (E5-1xxx) änhlich wie die Core i7 für den gleichen Sockel bepreist wurden. Also JA, das ist definitiv gewollte Produktpolitik von Intel.

i7 kompatible Dual-Boards wird es mit 99,9 Prozentiger Sicherheit somit auch nicht geben. Früher konnte man die Prozessoren noch per Drahtbrücken umlöten und damit Dual-fähig machen, aber die Zeiten sind schon lange vorbei.

Ich habe grade mit dem aktuellen Intel Core i7 AchtCore viel herumgespielt und werde in kürze meine Erkenntnisse dazu hier schreiben. Vielleicht nur soviel: Ich weiß nicht für welche Anwendung man mehr als 8 Kerne braucht und der Xtreme-Edition ist trotz 1000 Euro Preis gegenüber allen Xeons definitiv die günstigste Wahl. Der Burner ist aber der kleine 6 Core für jetzt ca. 400 Euro. Aber dafür muss man halt auch noch in Infrastruktur mit teurem Board und DDR4 investieren.



glitchsuperdrall
Beiträge: 28

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von glitchsuperdrall »

@Valentino!

Glaube ich nicht und Intel vermeidet, sich selber in den Fuss zu...
Hab zwei 2011-3 6 core parallel, kleiner, kälter und getrennt...
Die Dualboard-geschichte zahlt sich erst wieder aus, wenn wir
( schon wieder ein neuer Sockel/ egal) 11nm 8 core cpus um
499 Euro sehen. Das kann der Hersteller erst verkaufen, wenn er
dem geneigten Volk eine " goldene Marketingbrücke" verkauft.
( oder ein a-m-d kleines Wunder passiert-und studio --nicht starten
bitte net--danke):)
Wobei mir die Geschichte, die sie dann erzählen egal ist.

die schöne "neue Geschichte für 2016" halt dann...



kundesbanzler
Beiträge: 760

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von kundesbanzler »

Meine provokante Meinung dazu ist, dass sich die Workstations mit 8+ Kernen im Videobereich nur verkaufen, weil diejenigen, die über die Anschaffung entscheiden keine Ahnung davon haben, welche Aspekte wichtig sind. Bzw. selbst die Leute, die damit arbeiten müssen eher auf fremde Benchmarks gucken, als auf die eigenen CPU-Kurven. Eine wirkliche Berechtigung haben die Dual-CPU Systeme lediglich in ganz speziellen und sehr seltenen Anwendungsszenarien wie komplexen Simulationen.

Am Ende musst du dich fragen, was du damit anstellen willst. Editing bzw. Grading geht mit jeder aktuellen CPU in Echtzeit bzw. hängt von der GPU ab. Wenn du schnelle Encoding- bzw. Rendering-Leistung brauchst, verteilst du das besser auf mehrere Rechner, da bekommst du die 4-5 fache Leistung pro Geld und kannst je nach bedarf jederzeit skalieren. Comp- oder 3d-Tools sind auf den schnellen i7s sogar über weite Strecken flüssiger als auf jedem Xeon, da diverse UI-Interaktionen nicht parallelisierbar sind.



studiolondon
Beiträge: 936

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von studiolondon »

Valentino hat geschrieben:Habe mich die letzte Tage mal mit Dual-Socket Systemen auf 2011-3 Basis auseinander gesetzt und sehe da irgendwie keinen echten Bedarf mehr.
Oh, der ist da - wir kaufen solche Systeme in Dutzenden, andere in Hunderten, so mancher in Tausender-Stückzahlen.

Der Markt für so schnelle Systeme wächst erheblich, und so mancher Kunde nimmt nicht "nur" 2-fach, sondern gleich 4-fach Xeon.
Leider sind die meisten neuen 2011-3 Dual-Socket Boards nur mit den Xeon Prozessoren der E5-2600 v3 Reihe kompatibel und diese dazu extrem teuer oder nur irgendwo zwischen 1,6 und 2,4GHz getaktet.
Warum solche Boards nicht mit der E5-1600 v3 Reihe kompatibel sind, bleibt mir ein Rätsel.
Schon zwei E5-1630 V3 (420€) mit 3,7GHz Basistakt wären definitiv schneller und günstiger wie die 8-Kerner i7-5960X (1.130€) oder der Xeon E5-1680 v3 (2.000€).
Bitte korrigieren, wenn ich mich da irre!
Die E5-1x00 Reihe ist für single-CPU Systeme, und auch in zahlreichen anderen Aspekten (pci-e lanes, max RAM usw) gegenüber den den -2x00 limitiert.

Wenn du mit Single-cpu Leistung, der geringeren Pcie-E bandbreite und dem begrenzten RAM auskommst, sind die -1x00er völlig ok, das Preisleistungsverhältnis zudem attraktiver.

Wer hingegen mehr als die doppelte oder dreifache Leistung, multiple PCIe-Interconnects, viel RAM braucht, ist mit den -2x00er multi-cpus viel besser bedient.

Und lass dich nicht von dem Basistakt irritieren. Eine aktuelles 28-core / 56 Thread oder 36-core / 72 thread Workstation läuft typisch bei 3,6 Ghz, auch wenn der minimale Basistakt 2,6 oder gar 2,3 Ghz.

Um auf den minimalen Basistakt zu kommen, müssen wirklich alle 28 oder 36 cores auf Vollgas laufen, sprich alle Cores aller CPUs konstant über längere Zeit voll saturieren (was bei uns oft der Fall ist).

Ein 2699er Gespann liefert dann im Minimaltakt 83 Ghz über alle Cores.

Zum Vergleich - der schnellste und teuerste single-socket, der 1800€ -1680 v3, liefert maximal 25,6 Ghz über alle Cores. Nicht mal ein Drittel der Leistung - und das eben zudem auf erheblich weniger pcie-Lanes und RAM als die -2x00.

Im Alltag sieht das dann so aus: Während der Nutzung als Workstation arbeitet man bei 3,6 Ghz - und kann zudem bei Bedarf ganz bequem die komplette Leistung eines bis zwei -1680er im Hintergrund laufen lassen lassen, gerne auch von Tbyten grossen RAMdisks - und hat im Vordergrund immer noch mehr Power als die schnellsten -1x00er single-CPUs zur Verfügung. Und mit so mancher Nutzung (stereoskopisches Compositing, anspruchsvolles 3D&raytracing, crowd-simulation, 4-6K raw auf mehreren Ebenen usw) zwingt man auch 2015 selbst so eine Workstation noch an ihre Limits.

Wenn die Systeme dann pur ins Rendering gehen, und alle 28 bzw 36 cores komplett non-stop unter Vollast stehen, dann, und nur dann, fallen sie auf den minimalen Basistakt. Trotzdem hämmern unsere dual-workstations jeweils mehr als drei der (schnellsten) single-xeons raus, und das ist bei uns oft nötig.
Dazu kann man die Xeon CPUs nicht übertakten und beim DDR4 Speicher ist "schon" bei 2.133MHz das Ende der Fahnenstange erreicht.
Dafür kann man 6 Tbyte RAM ansteuern - was in vielen Nutzungen grandios bis zwingend ist, und das zudem alles andere als langsam, und eben auch mit der doppelten Menge an Speicherinterfaces, mehr als dem doppelten Cache und so weiter.
Ist das alles gewollte Produktpolitik von Intel oder habe ich da irgendwo einen Denkfehler?
Gezielte Preispolitik von Intel. Die Opterons liefern Mitbewerb bis zu den mid-speed 8 cores; da ist Intel auch noch halbwegs ok, was die Preise anbetrifft, darüber hinaus gibt es Monopol-Preise vom feinsten - die aber Kunden wie uns (und größere) nicht abhält.
Wird es auch Dual-Socket Boards geben, die kompatibel mit den neue 2011-3 i7 CPUs kompatibel sind?
Single-CPU wäre das nicht verwunderlich, multi-CPU hingegen schon.

Und abschliessend noch als Beispiel:

Resolve / Nuke&Fusion / 3Ds max Workstation.
3 * GPU (für Resolve mehr als sinnvoll)
1 * Raid für den lokalen Speicher
1 * Infiniband für das Netzwerk
Schon sind 5 * 16 pcie3-lanes (oder 4*16 + 1*8) verbraucht, und da braucht man da eben (nahezu zwingend) dual-cpus
Dazu kommen ja auch noch gerne 1 * HD-SDI etc.



studiolondon
Beiträge: 936

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von studiolondon »

kundesbanzler hat geschrieben:Meine provokante Meinung dazu ist, dass sich die Workstations mit 8+ Kernen im Videobereich nur verkaufen, weil diejenigen, die über die Anschaffung entscheiden keine Ahnung davon haben, welche Aspekte wichtig sind.
Sorry, das ist keine "provokante Meinung", sondern schlicht inkompetenter begrenzter Horizont.

8 core single cpu Systeme reichen für vieles aus - und sind eine tolle Sache. Bei den Anwendungen hier hingegen werden problemlos auch 24/28 core Workstations überladen und ans Limit gefahren - und das geht schnell. Ein paar Ebenen 4-6K raw Video im 3D- Compositing als Quelle für Spielfilm VFX, selbst ein einfaches Fluid für eine Getränke/Essen-Reklame bringt auch 24/28/36 cores schnell ans Limit.

Ein weiterer Aspekt - Delivery, Encoding, Rendering. Oft genug habe ich (und die Kollegen sowieso) heutzutage 5 oder auch 20 Auslieferungen (5 sprachen, mal 3 Fassungen (kurz, lang, stinger) mal 2 Versionen (mit Logo & call, ohne logo & call usw)). Diese 25 Fassungen (oder mehr) gehen dann gerne zudem in 2,3,4,5 Masterformate (DCI, Sender, optical, Web high-quality, web mobilfunk) - sprich selbst schon ein einfaches ein-Tage Werbeprojekt hat gerne über 100 deliveries. Da will ich logischerweise zusätzlich zur Arbeit im Hintergrund rendern, encodieren und mastern können, ohne mir vorne rum die Workstation dichtzumachen, und da sind 8 kerne, sorry, nichts.
Eine wirkliche Berechtigung haben die Dual-CPU Systeme lediglich in ganz speziellen und sehr seltenen Anwendungsszenarien wie komplexen Simulationen.
Hier: Im Gegenteil. Single-CPU Systeme sind die Ausnahme, für Office, Surfen, clientplayback etc reichen die dicke. Aber selbst schon Stationen für die Junior-VFXler oder Roto&Maskenzeichner müssen in der Lage sein, auch Compositing mit multiebenen-4-6k raw flink zu bearbeiten, und da sind heute single-cpu Systeme (leider) noch lange nicht.
Am Ende musst du dich fragen, was du damit anstellen willst. Editing bzw. Grading geht mit jeder aktuellen CPU in Echtzeit bzw. hängt von der GPU ab. Wenn du schnelle Encoding- bzw. Rendering-Leistung brauchst, verteilst du das besser auf mehrere Rechner, da bekommst du die 4-5 fache Leistung pro Geld und kannst je nach bedarf jederzeit skalieren.
Das stimmt so nicht - du wirfst hier einiges durcheinander.

Korrekt ist deine Aussage: beste Preise = single Sockel-CPU. 100% richtig.

4-5 fache Leistung pro Geld hingegen ist Unsinn. A) Gibt es auch extrem günstige MP/Multi-Socket CPUs, und wenn 24/7/365 Betrieb unter Last ansteht, sind die schon nach kurzer Zeit günstiger - Stromverbrauch zum einen, Rackspace so er kostet zum anderen. B) Kann man heute viele Prozesse gut in die 1,2,3,4,5,6 Tbyte RAM in den dual-xeons lagern, und spart sich dadurch 10.000sende für die (zudem erheblich langsameren) SSD-Raids, daa ist bei single-CPU Systemen einfach schnell schluss und C) erhöht sich die Produktivität vieler Mitarbeiter enorm, wenn sie auf ihrer Workstation ohne Leistungseinbußen im background rendern/encodieren können - das sollte man nicht aus den Augen verlieren und schliesslich D) wird bei vielen Solo-CPU Systemen ganz schnell das Netzwerk i/o der Flaschenhals, konkret: Eine 15.000 bis 20.000€ 36 core-workstation/renderstation kann lokal eben problemlos 250 TByte und mehr in die 36 hotswap Storageslots bekommen - und die mit vollgas bearbeiten, ohne das ein Cent für switches usw anfallen. Wenn man da hingegen entsprechend 10 4 cores oder 5 8 cores einzeln gegenschaltet & kalkuliert, gehts eben dann sofort (auch mit 10 Gbit) an die Limits vom i/o, und dann brauchts wieder infiniband, und dann wirds empfindlich teuer.

Ist also vom konkreten Use-Case abhängig. Deine Aussage (viele kleine Systeme sind günstiger) ist korrekt, wenn man wenig i/o, viel teilbares Computing auf überschaubaren Datasets hat (bspw. 3D raytrace ohne sehr sehr grosse Szenen). Für einen Compositing/Encoding-renderserver, der hingegen extrem viel io auf sehr grosse Datasets braucht, und gerne multi-100 tbyte grosse quellen hat hingegen nicht.

Comp- oder 3d-Tools sind auf den schnellen i7s sogar über weite Strecken flüssiger als auf jedem Xeon, da diverse UI-Interaktionen nicht parallelisierbar sind.
Wobei - die MPs Xeons takten ja bei wenig Threads auch bei 3,5/3,6 Ghz, also ist das heute dank Speedstep in überschaubaren Bereichen.

Als Fazit: Viele User (wie hier bspw) brauchen multi-cpu Systeme, und bringen selbst die heutigen 24/28/36 core Workstations und Server ans Limit. Wenn man "nur" schneidet, typisch 1080p, typisch datenreduziert wie H264-Quellen, und vielleicht 1,2 Master pro Tag oder gar Woche fertigt, reicht ein quad oder octa wunderbar aus. Hat man dicke 4-6K Raw-oder uncompressed EXR Quellen, dicke Compositings mit zig Layern und Nettigkeiten von Fluid bis Crowd, müssen die Schnittfassungen nach Kundenanruf gerne binnen einer Stunde vor Feierabend in 10, 20, 50 Fassungen ausgeliefert sein usw - da könnten auch heutige 24/28/36 core Workstations gerne noch schneller sein.



kundesbanzler
Beiträge: 760

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von kundesbanzler »

Auf solche grenzdebilen Diskussionen, wer den Produktkatalog von Intel fleißiger auswendig gelernt hat inklusive ausuferndem Bullshit-Bingo ("4-6K raw Video im 3D- Compositing"), da hab ich nun wirklich keine Lust mehr drauf.

Sobald konkrete Anwendungssituationen mit Budget skizziert sind, können wir uns gern über Sinn und Unsinn technischer Lösungen unterhalten, ansonsten ist das alles komplett müßig.



Peppermintpost
Beiträge: 2535

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von Peppermintpost »

ich bin ein sehr grosser Fan von Multi CPU Systemen. Ich arbeite inzwischen ausschliesslich auf HP Workstation mit 2 CPU (was jetzt nicht bedeutet HP ist das beste oder schnellste - sondern nur das ich die Kisten wirklich gut finde). Wenn ich a im AfterEffects, Premiere oder Resolve vor mich hin daddel, dann ist sicherlich ein "normaler" i7 genau so schnell. Wobei mit genau so schnell gemeint ist, der langweilt sich genau so wie meine 2 CPUs.
Aber wenn ich komplexere Projekte habe dann kann ich auf meiner Dual Kiste Problemlos mehrere Setups im Hintergrund Rechnen lassen und immer noch auf der Maschine arbeite ohne das ich überhaupt mitbekomme das da gerade im Hitergrund was bearbeitet wird. Das geht mit einem i7 in der Komplexität definitiv nicht.
Dazu kommt, wie Studiolondon schon gesagt hat, pci Lanes sind mir wichtig und viel Ram ebenfalls. Wenn ich also einen Raid Kontroller einbauen möchte, und nochmal 10GBE Netzwerk oder Fibrechannel und dann auch noch eine zweite Grafikkarte und noch ein Video Board a la Blackmagic oder Aja, dann wird es in den meisten i7 Boards schon sehr sehr eng bis unmöglich.

Verstehe mich nicht falsch, ein i7 ist der ober Hammer, die Dinger sind hammer schnell und brüllend billig, und für die meisten Anwendungen verrichten die ihre Arbeit auch phantastisch, aber gerade wenn es an wirklich Rechenintensive Aufgaben geht bei denen auch mehr als nur CPU Power wichtig ist dann spielen diese Dual Workstations ihre Karten schon voll aus. Ob der Preissprung dann gerechtfertigt ist, das kann man diskutieren, aber die oberen 30% dessen was technisch geht sind immer und in jedem Bereich deutlich teurer als die sogenannte "Midrange".
Das macht einen i7 nicht schlechter, aber das macht eine dual Xeon auch nicht überflüssig.
-------------------------------------------------------
leave the gun take the cannoli
-------------------------------------------------------
www.movie-grinder.com



studiolondon
Beiträge: 936

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von studiolondon »

kundesbanzler hat geschrieben:Auf solche grenzdebilen Diskussionen, wer den Produktkatalog von Intel fleißiger auswendig gelernt hat inklusive ausuferndem Bullshit-Bingo ("4-6K raw Video im 3D- Compositing"), da hab ich nun wirklich keine Lust mehr drauf.

Sobald konkrete Anwendungssituationen mit Budget skizziert sind, können wir uns gern über Sinn und Unsinn technischer Lösungen unterhalten, ansonsten ist das alles komplett müßig.
Für dich ist vielleicht 3D Compositing mit zahlreichen 4-6K Raw Quellen "bullshit", in den VFX&3D-Häusern dieser Welt hingegen seit Jahren schnöder Alltag. Intels und AMDs Sortiment exakt zu kennen ist Grundlage für jeden kompetenten Einkauf - und wenn regelmäßig sechsstellige (und höhere) Investitionen in IT fließen somit Pflichtprogramm. Als Käufer- und Anwendungsszenario kannst du Dir übrigens jedes der etwas größeren Posthäuser weltweit nehmen - das sind tausende.



kundesbanzler
Beiträge: 760

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von kundesbanzler »

Bullshit-Bingo zeichnet sich nicht dadurch aus, dass die rezitierten Begriffe bzw. Sachverhalte nicht existieren, sondern man anhand der wahllosen Aneinanderreihung merkt, dass der Vortragende keine Ahnung hat, wovon er redet.

Und mit dem Wissen um der Bedeutung des Begriffes "konkret" scheint es bei dir auch nicht weit bestellt zu sein, wenn für dich weltweit tausend verschiedene ein konkretes Szenario darstellt.



Peppermintpost
Beiträge: 2535

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von Peppermintpost »

mir ist auch nicht so richtig klar wo Studiolondon Bullshit-Bingo spielt.
Alles was er schreibt ist 100% richtig. Er differenziert bei der Art der Jobs und er sagt auch nicht im Ansatz das ein i7 Mist ist, im Gegenteil, er schreibt ja das es durchaus einige Anwendungen gibt wo die sehr viel Sinn machen.
Aber gerade im VFX Bereich mit 3D und Compositing jedes Bissel mehr an Leistung gerne gesehen ist, und das Ende der Sinnhaftigkeit noch lange nicht erreicht ist, was es meiner Meinung nach bei einer "Home" Anwendung mit einem i7 schon ist.

Wenn du die Anwendung nicht hast Kundesbanzler dann ist ja ja ok, sie deswegen aber auch jedem anderen abzusprechen und es als Bullshit-Bingo zu bezeichnen finde ich dem Beitrag nicht angemessen.
-------------------------------------------------------
leave the gun take the cannoli
-------------------------------------------------------
www.movie-grinder.com



studiolondon
Beiträge: 936

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von studiolondon »

kundesbanzler hat geschrieben:Bullshit-Bingo zeichnet sich nicht dadurch aus, dass die rezitierten Begriffe bzw. Sachverhalte nicht existieren, sondern man anhand der wahllosen Aneinanderreihung merkt, dass der Vortragende keine Ahnung hat, wovon er redet.
Für dich mag 3D compositing mit hochauflösenden RAW-quellen ja Neuland sein - für mich - und in jedem etwas größeren Posthaus - ist das Alltag. Seit vielen Jahren.

kundesbanzler hat geschrieben: Und mit dem Wissen um der Bedeutung des Begriffes "konkret" scheint es bei dir auch nicht weit bestellt zu sein, wenn für dich weltweit tausend verschiedene ein konkretes Szenario darstellt.
Konkret setzen die tausenden Posthäuser weltweit aus den gleichen Gründen dual&mp-Workstations(&server) anstelle der billigeren solo-cpu Systeme ein: Mehr als das doppelte & dreifache Tempo für jede Anwendung, die solides Multiprocessing erlaubt - und das sind heute die meisten. Nutzung auch von stärker ausgebauten Systemen mit ausreichend PCIe-lanes für multi-GPU (auch gerne 3 oder 4) mit SAN via Infniband uä, mit lokalem RAID etc. Arbeitsspeicher in TByte (oder auch nur hunderte Gbyte) Mengen für alles was davon profitiert (bspw. hochaufgelöste composites mit vielen Quellebenen laufen aus nichts besser als aus RAMdisks). Ein weiterer sehr relevanter Aspekt sind Softwarekosten. So manche pro System zu lizenzsierende Anwendung verschiebt die Kostenbalance dermaßen stark zugunsten Multiprozessorworkstations, dass jeglicher Kostenvorteil von i7 vs xeon MP komplett hinfällig ist. Zudem auch heute so manche Postanwendung ideal erst auf Clustern läuft (bspw. Resolve, baselight), auch dual-cpu sind für solche Kaliber noch reichlich eng.

Zu deinem Verständnis mal ein baselight 8:


Bild
Eine Software, ein User - und etwas mehr als eine CPU.

Baselight oder Resolve können selbstverständlich auch auf einem single-core i7 genutzt werden. Aber erwarte dann nicht flüssiges Playback wenn komplexere Quellen und/oder 3D und/oder HFR und/oder komplexe setups anstehen - und so mancher Nutzer braucht eben genau das.



kundesbanzler
Beiträge: 760

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von kundesbanzler »

Peppermintpost hat geschrieben:mir ist auch nicht so richtig klar wo Studiolondon Bullshit-Bingo spielt.
Wenn du paar Monate einfach nur die Pressemitteilungen der Software- und Workstationhersteller liest und die häufigsten Begriffe zusammenwürfelst, kommt ungefähr so ein Begriffsschwall raus wie man ihn oben bewundern darf.

Raw im Comp ist bei einer anständigen Pipeline schon an sich schwachsinnig. 3D-Comps, 4-6k, dafür braucht man keine Power im einzelnen Rechner. Precomp gemacht, auf die Farm geschickt, Problem gelöst. Die wirklichen Probleme finden abseits der großen Buzzwords statt. Frag mal einen 3d-Artist, was ihn wirklich nervt, da kommen dann so unspannende Dinge wie Paintbuffer baken und Renderlayer wechseln raus. Alles Single-Threaded wohlgemerkt.

Fakt ist: der i7-4790K ist der schnellste Prozessor auf dem Markt, der kommt noch eine ordentliche Schippe höher als die putzigen 3,6GHz. Schneller wirds nur, wenn du mehr Kerne dazu schmeißt, und das kannst du auch in getrennten Gehäusen bzw. Einheiten, das ist dann wirklich kompromisslos.

Natürlich findest du auch für Vielkern-Workstations irgendwelche Anwendungsszenarien. Das habe ich auch niemals bestritten. Aber das rumlawieren in Szenarien die es irgendwie irgendwo gibt, ohne diese zu beziffern, bringt niemanden hier weiter.



studiolondon
Beiträge: 936

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von studiolondon »

kundesbanzler hat geschrieben:
Peppermintpost hat geschrieben:mir ist auch nicht so richtig klar wo Studiolondon Bullshit-Bingo spielt.
Wenn du paar Monate einfach nur die Pressemitteilungen der Software- und Workstationhersteller liest und die häufigsten Begriffe zusammenwürfelst, kommt ungefähr so ein Begriffsschwall raus wie man ihn oben bewundern darf.
Fassen wir zusammen - die Hersteller von Hardware (wie HP & Dell), von Software (wie Filmlight, blackmagic / resolve, autodesk etc) und die Nutzer ebendieser (wie ich und unzähliger Kollegen in tausenden Studios) haben alle keine Peilung & spielen Bullshitbingo - der Bundeskanzler weiss es besser.

Raw im Comp ist bei einer anständigen Pipeline schon an sich schwachsinnig.
Na, dann wird es ja Zeit dass du Blackmagic / Eyeon wegen Fusion, the foundry wegen Nuke, Adobe wegen After Effects, Autodesk wegen flame & flare mal anrufst und denen erklärst warum sie so einen Schwachsinn nicht brauchen...

... und mal ab in die Realität: nondestruktiv im Compositing -also ohne die quellen zu verändern - zu arbeiten ist pflicht für zig Pipelines, aus gutem Grund. Du scheinst wohl irrigerweise anzunehmen, dass in etwas grösseren Produktionen tatsächlich schon zu Beginn der VFX fest steht, welcher look welcher Szene zugeordnet ist; oftmals bekommt man den erst nach Wochen oder Monaten - und der geht auf die orginal-raws, die man im composite hat, und wird gerne oft & viel getuned & geändert. Desweiteren arbeiten typischerweise mehrere Häuser an Szenen - auch kooperativ. Die Aufteilung 3D CGI von Haus 1, Rooto&removal von Haus #2, Master&grade in Haus 3 ist alles andere als ungewöhnlich - was glaubst du was da für ein Chaos herrschen würde, wenn jeder in seiner kleinen lokalen pipeline anfangen würde, mal schnell die Orginalraws durch (weil dann gehts ja auch mit nem solo core i7...) seine decodes nach-gusto zu ersetzen...
3D-Comps, 4-6k, dafür braucht man keine Power im einzelnen Rechner. Precomp gemacht, auf die Farm geschickt, Problem gelöst.
Dein Ansatz mag für Einzelkämpfer und kleineren Projekten ganz nett sein & funktionieren. Wenn man aber auch nur 10 Kollegen (und das ist nicht viel) an der Szene arbeiten hat wird er genauso dysfunktional - wie wenn der Kunde/die Regie im Haus unmittelbar, live & nahezu in Echtzeit Ergebnisse sehen und bearbeiten will - ganz zu schweigen von der üblichen Situation, irgendwo in der Kette, sei es in der Mitte bei Roto&Removal, am Ende der Pipeline im Mastering oder seitwärts (bspw 3D CGI) zu sitzen - gerne auch quer durch Zeitzonen. wenn da einer anfängt um mit seinem billigeren core i7 zurechtzukommen die quellen zu stutzen ist chaos vorprogrammiert.

Die wirklichen Probleme finden abseits der großen Buzzwords statt.
Für dich mögen 3d / stereoskopischie, Compositing, 4-6K raw ja buzzwords sein. Für ein Gros der postbranche hingegen ist das täglich Brot.

Fakt ist: der i7-4790K ist der schnellste Prozessor auf dem Markt, der kommt noch eine ordentliche Schippe höher als die putzigen 3,6GHz.
Was für ein Unsinn. Ein 4790 stellt der Software systemweit grade mal max 14,4 Ghz zur Verfügung - und hat als basefrequency bei vollast am rande 3,6 Ghz. Das ist nichtmal ein sechstel der Leistung heutiger dual-xeon workstations. Zudem hat der 4790 mit seiner minimalen Ausstattung an pcie-lanes schlicht nicht ansatzweise genug Bandbreite, um stärkere Ausstattung mit GPU/SAN/RAID anzubinden. Und - da er kein ECC kann - sind Speicherfehler unkorrigiert. Ganz zu schweigen von den 512GB oder 6 Tbyte RAM-Ausbau, die man heute für vieles verdammt gut einsetzen kann (wo war beim 4790 schluss? 32 GB? 64?). Die core i7 2/3/4xxx sind feine cpus - für Spiele sogar das beste. Aber sie sind gruselig lahm, wenn man multiprozessorworkstations mit entsprechender software gewohnt ist - wie gesagt, heutige Workstations liefern mehr als die sechsfache Leistung.

Wenn du in deiner Nutzung damit ausreichend bedient bist - gut für dich. Andere Anwenundgen bringen hingegen auch 24 und 28 core workstations oft genug voll ans Limit - und aus genau dem Grund kaufen Kunden eben baselights auf clustern, ist resolve im vollausbau auf mehreren multi-cpu systemen am laufen - und genau deswegen sind die Flagschiffe aller Workstationhersteller, egal ob Dell, Lenovo, HP etc - multiprozessor-xeons. Nicht core i7 4790er.
kundesbanzler hat geschrieben:
Natürlich findest du auch für Vielkern-Workstations irgendwelche Anwendungsszenarien. Das habe ich auch niemals bestritten. Aber das rumlawieren in Szenarien die es irgendwie irgendwo gibt, ohne diese zu beziffern, bringt niemanden hier weiter.
In diesem Thread sind nun zahlreiche Szenarien - direkt aus der Praxis - benannt worden: von Grading und Mastering mit Resolve und baselight, über 4k Copositing mit und ohne Raw (auch völlig ohne RAW sind die heute nutzbaren Tbytegrossen RAMDisks für high-res Composites genial), encoding & delivery (wohlgemerkt auch im Background auf 16 cpus während im Vorderung ae & premiere auf 20 cores laufen.... und mehr als genug Speicher haben), jeglicher 3D raytracer, Software mit hohen Lizenzkosten pro System, wodurch jeglicher Kostenvorteil der billigen coree i7s flöten geht.... und bei einigen dieser Nutzungen sind dual CPUs (oder sogar cluster aus dual-cpus) auch heute zwingend für Echtzeit - und Arbeiten mit Kunde / Regie in Echtzeit ist nach wie vor unter den lukrativsten Tätigkeitsprofilen. Genau die Klasse, bei denen es jetzt eben auch nicht so entscheidend ist, ob die Workstation 8000, 12000€ oder 15000€ kostet.Mach dir einfach mal klar, warum es einen Markt für flame&mystika, baselight&resolve cluster usw gibt. Die Anwender solcher Systeme wissen nur all zu gut, warum sie nicht bei einem billigen core i7 mit besserem Preisleistungsverhältnis bleiben wollen.



Valentino
Beiträge: 4822

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von Valentino »

Vielen Dank an Studio, aber das ist irgendwie alles etwas viel und so schon in fast allen anderen Beiträgen von dir wieder zu finden.
Deswegen die Bitte, beschränke dich auf das wesentlichen Thema, damit man in Zukunft zu diesem Thema die nötigen Informationen findet und nicht von dieser Wissensflut überrollt wird.

Vielleicht sieht das das Slashcam Team so ähnlich und verschied Teile davon, der Übersicht halber, ins Off-Topic.



studiolondon
Beiträge: 936

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von studiolondon »

Valentino hat geschrieben:Vielen Dank an Studio, aber das ist irgendwie alles etwas viel und so schon in fast allen anderen Beiträgen von dir wieder zu finden.
Deswegen die Bitte, beschränke dich auf das wesentlichen Thema, damit man in Zukunft zu diesem Thema die nötigen Informationen findet und nicht von dieser Wissensflut überrollt wird.

Vielleicht sieht das das Slashcam Team so ähnlich und verschied Teile davon, der Übersicht halber, ins Off-Topic.
Ahoi Valentino - die zentralen Vorteile wie
- mehr als dreifache Rechenleistung gegenüber den stärksten verfügbaren solo-cpus,
- mehr als doppelte Bandbreite zu stärkeren Ausbauten wie multiGPU/SAN/RAID,
- 6 Tbyte Speicher
usw sind im ersten Post kompakt gelistet.

Die Anwendungsprofile - ob nun zwingend multi-prozessor für Echtzeit in hochqualitativen Formaten, oder im background encoding/rendering, oder dreifach schnellere Interaktion ebenso.

Der Rest ist der Tat recht repetitiv - aber nicht off, sondern on-topic - da der Poster mit dem Irrtum "ein quadcore 4790 ist das beste" offenbar für manches ausführlichere Erörterungen benötigt bevor er gewisse Zusammenhänge erfasst.



Peppermintpost
Beiträge: 2535

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von Peppermintpost »

Ja verstehe ich jetzt so richtig nicht.

Natürlich gibt es jede Menge Anwendungsbeispiele wo ein i7 alles ist was du brauchst. Also z.B. für die Mehrzahl der User hier in Forum.
Die meisten werden vermutlich eine DSLR haben die 1080 oder 4k in h.264 aufzeichen. Die meisten werden es lediglich flüssig schneiden wollen. Da ist ein i7 schon gnadenlos Overpowered. Dann haben wir welche die dann auch noch eine Farbkorrektur in einem Grading System machen wollen (ob Resolve oder SpeedGrade ist erstmal egal) die stopfen dann eine GTX Grafik in ihr System und schon wieder ist alles Overpowered und alles ist gut. Auch die die noch ein wenig Grafik mit AfterEffects drauf machen oder mal ein Greenscreen Keyen wollen, oder eine 3D Klötzchen Schrift im Kreis drehen wollen brauchen sicher nicht mehr als so ein System.
Alles klaro - ein i7 ist also für die Mehrzahl der hier existierenden Aufgaben mehr als ausreichend.
So wenn wir jetzt aber nur einen kleinen Schritt richtung "Pro" Anwendung machen, dann sieht die Welt ruckartig anders aus. Wir machen ja auch in Deutschland eine Menge VFX. Die sind bei uns nicht Dinosaurier oder Xmen sondern eher "Mit einem Wisch ist alles Weg", technisch ist das aber egal. Weil ich jetzt kein 1080Footage in h264 habe, das als Master "nur" Prores werden soll, sondern ich hab Footage das z.B. mit Red in 4k-6k gedreht ist, und das der VFX als openEXR zur verfügung gestellt werden soll und zusätzlich noch ein mpeg für den Kunden um die Rushes schon mal zu sehen. So und wenn du da bei deinem i7 auf Render drückst, dann gehen aber die Lampen schon sehr schnell aus.
Nicht weil der i7 mist ist, sondern weil zu einem schnellen System mehr gehört als ein schneller Prozessor.
Wir sprechen hier gerade über eine einfache 0815 "Pro" Anwendung wie sie täglich 100 mal in Deutschland vorkommt, und wo ein Standart oder Consumer i7 System es schon nicht mehr bzw kaum noch leisten kann.

Wenn wir jetzt noch weiter nach Anwendungen schauen wo viel Rechenleistung gefragt ist, dann sind 3D Rendering und Compositing ganz oben auf der Liste. Das ist ja jetzt kein Bullshit-Bingo sondern das was tatsächlich statt findet.

Natürlich hast du recht, wenn du sagst ich kann auch eine zweite Kiste kaufen und die zum Rendern dazu stellen, und du hast auch recht wenn du sagst das das unter umständen billiger sein kann. Aber 2 Rechner sind nunmal etwas anderes ein ein Rechner, es sei denn du schaltest die per Infiniband zusammen mit einem OS über beide Maschinen, aber dann ist es auch nicht mehr billiger und deutlich komplexer zu warten. Da würde ich dann schon alleine aus Handhabungsgründen eine Kiste bevorzugen.
Eine Renderfarm zu haben ist natürlich super schick, aber auch hier redet Studiolondon ja keinen Unsinn wenn er sagt das man nach der Anwendung schauen muss, eine Renderfarm für 3D z.B. stellt vollkommen andere Anforderungen an das Netzwerk, als eine Farm für Compositing Anwendungen und ein schnelles Netzwerk macht eine Computer Infrastuktur natürlich sehr teuer.

Also beim besten Willen. Ich habe nichts gegen i7 Systeme, im Gegenteil, wie schon geschrieben die sind super und für die aller meisten Anwendungen schon überpowered. Aber die Argumente die für Dual CPU Systeme sprechen sind auch keine absurden Beispiele die nie vorkommen. Deher finde ich Bullshit-Bingo zu unterstellen daneben, ich kann durchaus akzeptieren, das du andere Anwendungen hast, und das du deine Aufgabenstellungen anders gelöst hast, aber dann müstest du auch dazu sagen was genau du machst um das einschätzen zu können.

Zur Zeit finde ich du flamest nur Studiolondon und das ohne wirklich zu belegen wo er ggf falsch liegt.
-------------------------------------------------------
leave the gun take the cannoli
-------------------------------------------------------
www.movie-grinder.com



studiolondon
Beiträge: 936

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von studiolondon »

Peppermintpost hat geschrieben: Natürlich gibt es jede Menge Anwendungsbeispiele wo ein i7 alles ist was du brauchst. Also z.B. für die Mehrzahl der User hier in Forum.
Die meisten werden vermutlich eine DSLR haben die 1080 oder 4k in h.264 aufzeichen. Die meisten werden es lediglich flüssig schneiden wollen. Da ist ein i7 schon gnadenlos Overpowered.
Völlig korrekt - für die Anwendung reicht ein günstiger Athlon oder auch ein core i5 gut aus - und dann ist das Preisleistungsverhältnis sehr gut.

So wenn wir jetzt aber nur einen kleinen Schritt richtung "Pro" Anwendung machen, dann sieht die Welt ruckartig anders aus. Wir machen ja auch in Deutschland eine Menge VFX. Die sind bei uns nicht Dinosaurier oder Xmen sondern eher "Mit einem Wisch ist alles Weg", technisch ist das aber egal.
Ahem, Einspruch. Viele der A-Budget und B-Budget Hollywood-FX kommen aus Deutschland. Von Broadcast wie Game of Thrones bis zu Full-Feature wie Star Trek sind da oft & gerne deutsche (und englische :)) Anbieter in der Produktion - und zwar in einem Ausmaß, daß so ancher L.A.-basierender Anbieter kräftig flucht...


Wenn wir jetzt noch weiter nach Anwendungen schauen wo viel Rechenleistung gefragt ist, dann sind 3D Rendering und Compositing ganz oben auf der Liste. Das ist ja jetzt kein Bullshit-Bingo sondern das was tatsächlich statt findet.
Und die "Entschärfungen" des Aufwands - wie bspw. proxies, precomp, pre-decode etc - lassen sich oft nicht einsetzen - desto größer die Etats, desto wahrscheinlicher mehrere Pipelines & Firmen im Workflow, desto unwahrscheinlicher dass man überhaupt proxys/prädecodes/precomps verwenden kann - oder darf-
Zur Zeit finde ich du flamest nur Studiolondon und das ohne wirklich zu belegen wo er ggf falsch liegt.
Er kann ja nichts widerlegen - die Argumente sind sachlich, allesamt völlig korrekt und konkret aus der Praxis des Alltags gegriffen. Aber er "flamet" ja nicht mich - sondern das Gros der Postproduktionindustrie. Jeder wünscht den Tag herbei, an dem ein billiger Standardprozessor wie ein core i7 alle Anforderungen erfüllt; aber leider ist es noch ein jahre-, eher jahrzehntelanger Weg dorthin. Es ist klasse, was der Käufer heute für wenig Geld bekommt, ob AMD FX oder Intel Atom bis corei7, der Wettbewerb hat da voll gewirkt. Niemand gibt gerne 2000 oder 4000€ pro CPU (und das für multicpu-systee) aus, wenn er mit 100, 200 bis 400 gut auskommt. Leider ist das für viele User & use-cases heute noch nicht der Fall - und ebenso der 500€ fullHD-projektor, der ersetzt eben bedauerlicherweise auch heute nicht den DCI-Projektor im Studio - und ist dennoch ein tolles Gerät.



pixler
Beiträge: 567

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von pixler »

Ja Dual Socket Systeme machen Sinn....z.B. bei Renderfarmen.

Renderlizenzen werden meist (z.B. Renderman, V-Ray) per Computer verkauft - je mehr CPU's / Core's diese hat - desto besser.



kundesbanzler
Beiträge: 760

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von kundesbanzler »

So oft kann ich gar nicht Bingo rufen, wie ich hier die Reihen voll bekomme.

Ich habe von Anfang an gesagt - noch bevor dieser Zirkus hier los ging - dass wir das ganze nur anhand von Szenarien erörtern können. Weil das anscheinend niemand der Anwesenden zu raffen scheint, ein konkretes Szenario wäre sowas wie

- x € Budget
- y Arbeitsplätze Software A (mit ein paar techn. Anforderungen)
- z Arbeitsplätze Software B (mit ein paar techn. Anforderungen)
- m qm Platz in n Räumen mit diesen und jenen Einschränkungen
...

Ansonsten hauen wir uns hier nur die Allgemeinplätzchen um die Ohren, die von niemandem überprüfbar sind - nichtmal von uns selbst. Hier, ich hab auch noch ein paar:

Für die meisten Anwendungsfälle, selbst in den größten VFX-Häusern (Roto/Prep, Retopologisierung/Modeling/Texturing/Shading einzelner Assets, Environment ...) ist ein i7 nicht nur die günstigere Wahl (das ist er sowieso) sondern auch die schnellere. Und noch eine Behauptung: auf jeden Artist, der eine 12-Kern Workstation braucht, um große Lighting-Szenen oder Comps zusammenzufahren kommen 10 andere, denen ein 4Kerner reicht und 5, denen ein 6Kerner reicht. Das trifft genau meine Definition von "selten" (s.o.).

Unterm Strich sind das aber nur unüberprüfbare Behauptungen, wie alles, was ihr bislang hier abgesondert habt, und deswegen irrelevant. Und dann kommen noch die Stellen, die schlicht falsch sind:
Und die "Entschärfungen" des Aufwands - wie bspw. proxies, precomp, pre-decode etc - lassen sich oft nicht einsetzen - desto größer die Etats, desto wahrscheinlicher mehrere Pipelines & Firmen im Workflow, desto unwahrscheinlicher dass man überhaupt proxys/prädecodes/precomps verwenden kann - oder darf-
Wo hast du das denn gelesen? Große Szenen zusammenfahren, ohne LowRez-Proxys zu benutzen, was dümmeres hab ich selten gehört. Keine Precomps rendern ?!? Das muss in diesem einen Posthaus sein, in dem man nur mit einer Hand auf den Rücken gebunden arbeiten darf.
dreifach schnellere Interaktion
Und hier wirds einfach lächerlich. Schau dir erstmal bei regulärer UI-Interaktion eines gängigen 3d-Pakets (Maya, Mari, Houdini...) den CPU-Graph an, dann können wir weiterreden.

Dass wenn RAM oder Interfaces nicht reichen, man aufstocken bzw. die Plattform wechseln muss, ist klar. Diesbezüglich sollte Intel sich mal selbst die Frage stellen, wieso sie ihren schnellsten Prozessor auf einer derart verkrüppelten Plattform aufstellen.



merlinmage
Beiträge: 1097

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von merlinmage »

Du weißt schon banzler, dass du gerade mit Forentrollen diskutierst?



kundesbanzler
Beiträge: 760

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von kundesbanzler »

merlinmage hat geschrieben:Du weißt schon banzler, dass du gerade mit Forentrollen diskutierst?
Ja sicher, bei studio ist das evident. Trotzdem sollte man es nicht so stehen lassen, da es wie man sieht von einigen ernst genommen wird.

Aber der Aufwand hält sich in Grenzen, nach fünf Schwachsinnigkeiten pro Post höre ich eh auf, den zu lesen, und die sind schnell erreicht. :-)



studiolondon
Beiträge: 936

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von studiolondon »

kundesbanzler hat geschrieben: auf jeden Artist, der eine 12-Kern Workstation braucht, um große Lighting-Szenen oder Comps zusammenzufahren...
12 core workstations war Stand der Technik vor 5 jahren.

Aktuell bzw Stand 2014 sind 36-/28-cores bei dual, 60er und mehr bei quads.

Btw - die 64 core quad opterons haben inzwischen sehr gute Preise. Bei unter 500 euro pro 16 core cpu, von denen je 4 auf ein 600-750 euro mainboard kommen, sind damit ordentliche render/encoding-quadserver günstig wie nie zuvor.

Fassen aber eben nur 1 TB RAM max anstelle von 6 TB bei Xeons - und die singlethread-performance ist nicht auf dem Niveau der Xeons. Insofern lohnen sich die für massiv multithread-fähige Aufgaben im rendering eher als für den frontend-Bereich.



motiongroup

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von motiongroup »

Für die meisten Anwendungsfälle, selbst in den größten VFX-Häusern (Roto/Prep, Retopologisierung/Modeling/Texturing/Shading einzelner Assets, Environment ...) ist ein i7 nicht nur die günstigere Wahl (das ist er sowieso) sondern auch die schnellere. Und noch eine Behauptung: auf jeden Artist, der eine 12-Kern Workstation braucht, um große Lighting-Szenen oder Comps zusammenzufahren kommen 10 andere, denen ein 4Kerner reicht und 5, denen ein 6Kerner reicht. Das trifft genau meine Definition von "selten" (s.o.).
selbiges hat mir in einem andern Forum ein Artist erzählt der an Interstellar mitgearbeitet hat auf die Frage wie sich bei Ihnen der Maschinenpark zusammen setzt..

trotzdem eine erfrischende Diskussion...
hier noch ein kleiner Link wie es SGO hält ..
http://www.sgo.es/forums/showthread.php ... ottlenecks

Die Konfiguides bei allen Herstellern geben darüber Auskunft wie was mit welchen Komponenten auf welchen Plattformen zu konfigurieren ist...



motiongroup

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von motiongroup »

rudi hat geschrieben:
Valentino hat geschrieben:
Ist das alles gewollte Produktpolitik von Intel oder habe ich da irgendwo einen Denkfehler?

Wird es auch Dual-Socket Boards geben, die kompatibel mit den neue 2011-3 i7 CPUs kompatibel sind?
Intel hat sich schon immer die DUAL Prozessor Xeons (in diesem Fall E5-2xxx) mit Gold aufwiegen lassen, während die Prozessoren für einen Sockel (E5-1xxx) änhlich wie die Core i7 für den gleichen Sockel bepreist wurden. Also JA, das ist definitiv gewollte Produktpolitik von Intel.

i7 kompatible Dual-Boards wird es mit 99,9 Prozentiger Sicherheit somit auch nicht geben. Früher konnte man die Prozessoren noch per Drahtbrücken umlöten und damit Dual-fähig machen, aber die Zeiten sind schon lange vorbei.

Ich habe grade mit dem aktuellen Intel Core i7 AchtCore viel herumgespielt und werde in kürze meine Erkenntnisse dazu hier schreiben. Vielleicht nur soviel: Ich weiß nicht für welche Anwendung man mehr als 8 Kerne braucht und der Xtreme-Edition ist trotz 1000 Euro Preis gegenüber allen Xeons definitiv die günstigste Wahl. Der Burner ist aber der kleine 6 Core für jetzt ca. 400 Euro. Aber dafür muss man halt auch noch in Infrastruktur mit teurem Board und DDR4 investieren.
hat's früher schon mal gegeben Abit BP6
http://www.anandtech.com/show/343

damals ging sogar DUAL CELERON als SPARVARIANTE..



rudi
Administrator
Administrator
Beiträge: 1479

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von rudi »

motiongroup hat geschrieben:
hat's früher schon mal gegeben Abit BP6
http://www.anandtech.com/show/343

damals ging sogar DUAL CELERON als SPARVARIANTE..
Yeah, das waren noch Zeiten. Intel BX-Chipsatz in jeder Hinsicht ein Klassiker. Da hatten wir auch unsere DUAL Celerons dran.. 2 x 400 MHz, wenn ich nicht irre.

Aber auch noch zur anderen Diskussion: Ich wollte auch nicht sagen, dass man Multi CPU nicht brauchen kann, aber der 8-Core i7 ist das günstigste Powertier, ohne dass man gleich in eine Xeon-Infratrukur investieren muss. Wenn man sich ein DUAL-XEON System baut, werden die Mainboards gleich mindestens 200 Euro teurer, man braucht dann auch viel mehr RAM pro Kern (AFX ist da z.B. wirklich ein Speicherfresser, das gar nicht alle Kerne Kerne nutzt, wenn nicht genügend RAM/Kern da ist) und wenn man mit GPUs anfängt werden auch Netzteile und Gehäuse plötzlich zur Kostenfrage.

Solange man beim i7 bleibt, kann man zwei schnelle GPUs verbauen und wenn man den i7 noch leicht übertaktet, muss man für vergleichbare XEON-Leistung doch gleich deutlich mehr zahlen. Wer allerdings schneller will, kommt um die XEONS/Operons nicht herum.

Aber, wie gesagt ich werde dazu auch bald was bei slashCAM schreiben, weil sich meine Meinung zu dem Thema im letzten Jahr etwas verändert hat.



Valentino
Beiträge: 4822

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von Valentino »

Studio ist nicht Off-Topic sonder manchmal etwas Over-Topic ;-)

Aber naja hätten den Beitrag am Anfang auf den reinen Videoschnitt bzw. Colorgrading beschränken sollen und VFX und Co. heraus nehmen.

Habe auch noch ein kleines X99 System mit dem Xeon E5-1630 v4 mit nur vier Kernen, dafür läuft er auch mit 3,7GHz und bis jetzt reicht der für alle Videoanwendungen völlig aus.
Leider gibt es keine vergleichbaren i7 4 Kern CPU mit den vollen 40 PCIe 3.0 Lanes. Mit Einsteiger Grafikkarte ist so ein X99 Einsteiger System für 1,5 bis 1,8k Euro zu Stämmen.
Ich wäre auch bei Z79 geblieben, aber nur 6 Sata Anschlüsse und nur zwei davon mit 6Gbit und ohne m.2 und SataExpress Schnittstelle empfand ich nicht mehr ganz zeitgemäß.

Wer aber unbedingt ein 8 Kern Intel System mit zwei CPUs will, ist mit dem Vorgänger Modelle E5-2609V2 ein paar Hundert Euro günstiger.



motiongroup

Re: Machen Dual-Socket Systeme noch Sinn?

Beitrag von motiongroup »

Yeah, das waren noch Zeiten. Intel BX-Chipsatz in jeder Hinsicht ein Klassiker. Da hatten wir auch unsere DUAL Celerons dran.. 2 x 400 MHz, wenn ich nicht irre
hahaha und dazu eine Diamond Fire GL 1000 reingestopft mit nem permedia 2 ... das haute ganz schön ab damals...cool das sind Erinnerungen..

ach ja gefunden



 Aktuelle Beiträge [alle Foren]
 
» Dank KI: Propagandafilm leichtgemacht
von macaw - Fr 16:51
» Blackmagic URSA Cine 12K - 16 Blendenstufen für 15.000 Dollar!
von -paleface- - Fr 16:29
» Blackmagic PYXIS 6K: Die Vollformat „Box“-Kamera mit Viewfinder, 2x SDI, Sideplates (!) uvm.
von roki100 - Fr 16:14
» Fujinon XF 18-120mmF4 LM OZ WR - Erfahrungsbericht
von Skeptiker - Fr 15:44
» BADEN GEHEN | Making Of + Teaser
von Clemens Schiesko - Fr 15:38
» Meine erste Kritik in Filmthreat :-)
von soulbrother - Fr 15:06
» Was hast Du zuletzt gekauft?
von ruessel - Fr 13:34
» Insta360 X4 360°-Action-Kamera filmt in 8K
von soulbrother - Fr 13:15
» Was schaust Du gerade?
von Axel - Fr 13:03
» Angelbird MagSafe externe Recording Modules - nicht nur für iPhones
von soulbrother - Fr 11:47
» Blackmagic URSA Cine 12K erklärt: Dynamikumfang, Monitoring-Setup uvm...
von slashCAM - Fr 11:39
» Messevideo: Atomos NINJA PHONE erklärt
von rob - Fr 10:02
» Western Digital stellt weltweit erste 4 TB SD-Karte vor
von dienstag_01 - Fr 10:00
» Microsoft VASA-1 generiert realistische Video-Portraits aus einer Audiodatei
von 7River - Fr 7:21
» Was hörst Du gerade?
von klusterdegenerierung - Fr 0:41
» Anfänger im Schnitt Stunden- bzw. Tageshonorar Beteiligung am Gewinn
von Jalue - Fr 0:13
» Repariert bebob noch ältere Produkte?
von Skeptiker - Fr 0:01
» NAB 2024 Neuigkeiten
von pillepalle - Do 22:35
» Sony bringt weiteres Weitwinkel-Zoomobjektiv - FE 16-25mm F2.8 G
von rush - Do 21:59
» Suche JVC DT-V1910CG oder Sony BVM D/A-Serie Monitore
von guut - Do 19:16
» Linsen (Vintage, Anamorphic & Co.)
von TomStg - Do 16:55
» Western Digital Ultrastar Transporter: 368 TB in der Aktentasche
von juergensaibic - Do 15:54
» Freefly Systems Ember S2.5K - High Speed Kamera für 25.000 Dollar
von roki100 - Do 15:01
» Atomos 5" Shinobi/SDI und Ninja/V Zubehör-Set fabrikneu/unbenutzt
von Rockie - Do 13:29
» Tieraufnahmen mit dem MKE600 + H1 Essential rauschen
von Skeptiker - Do 12:43
» Blackmagic Box Camera
von roki100 - Mi 20:31
» GPS Receiver GP-E2 Standort anzeigen
von Reinhold888 - Mi 17:32
» Netflix „Ripley“
von TomStg - Mi 13:17
» Adobe entfernt negativ promts
von klusterdegenerierung - Mi 12:09
» Tragischer Unfall am Set trotz Filmwaffe: Kamerafrau stirbt nach Schuß von Alec Baldwin
von 7River - Mi 11:23
» Dehancer Pro - Filmsimulation auf höchstem Niveau
von Frank Glencairn - Mi 10:19
» Blackmagic DaVinci Resolve 19 jetzt auch auf Deutsch
von medienonkel - Mi 9:58
» DJI Avata 2, Goggles 3 und RC Motion 3 im ersten Praxistest
von Videopower - Di 23:35
» RED ist nun eine Nikon-Tochter - und Jarred Land abgesetzt
von iasi - Di 23:24
» ASUS ProArt PA32KCX - 8K Mini-LED-Monitor mit DisplayPort 2.1
von MK - Di 20:22