Gigabyte GA-990FXA-UD5 & Sapphire Radeon 5450

So, nach dem Reinfall mit dem Sapphire Pure Black 990fx Board hab ich mir das Gigabyte GA-990FXA-UD5 Board geholt. Damit ist zwar auch nicht alles rosig, aber es läuft immerhin mit Linux.

Im Gegensatz zum Sapphire scheinen die ACPI Tabellen sauber zu sein, und die Kiste bootet ohne Probleme durch. Powersaving funktioniert auch super, in Linux verbraucht die Kiste idle (Board, CPU, 1x8GB Riegel @ 1866Mhz, keine Grafikkarte) ca 48-51Watt. Das ist zwar mehr als mein alter 4450e (TDP 45Watt), aber der FX-8350 hat ja auch die vierfache Anzahl von Kernen, wobei die Bulldozer/Piledriver Kerne ja keine richtigen Kerne sind. Oh, und natürlich sind 4GHz auch ein bisschen mehr als 2,4Ghz.

Probleme gab's nur mit dem Speicher. Zwei Module liefen noch mit 1866 Mhz, mit vier Speicherriegel wollte das Board nicht mehr booten, auch nicht mit dem Standardtakt von 1366Mhz. Gigabyte gibt an 32GB und 1866 zu unterstützen, von beides gleichzeitig steht nirgendwo was ;) Geholfen hat es am Ende in den Advanced Option "Load Line Calibration" von Auto auf Regular zu setzen, jetzt laufen die 4 Riegel mit 32GB. Von dieser "Load Line Calibration" hatte ich vorher auch noch nix gehört. Interessanterweise brauchen die 4 Module nicht mehr Strom als eins.

Ein kleines Problem ist die Sapphire (schon wieder...) Radeon 5450. Mit der Karte steigt der Idle-Verbrauch auf 60-63Watt. Das entspricht so ziemlich dem maximalen Verbrauch der Karte, angegeben ist die mit 6Watt im Idle, und das obwohl Linux im Textmodus ohne Grafik, DRM und Co lief. Also DRM und radeonfb aktiviert um die Power-Einstellungen im sysfs bekommen. Egal, was ich einstelle, am Stromverbrauch ändert sich nix. Richtig kurios ist, dass mit der Einstellung Low GPU und RAM mit der maximalen Geschwindigkeit laufen, während bei High diese auf dem Minimaltakt laufen. Auch wenn der Stromverbrauch gleich ist, läuft die Karte so kühler.

Auch wenn das mit dem Speichertakt ärgerlich ist, hat die Kiste so auch genug Power. Es ist bestimmt schon 10 Jahre her, dass ich zuletzt einen Kernel unter 2 min kompilieren konnte.

Links:
Gentoo Wiki: Radeon
Phoronix: The Current State Of Radeon Power Management (2011!)

Rubrik: 

AMD: Der beschissenste Treiber II

Ich könnte gerade wieder ausrasten. Ich hab mir für meinen Linux PC eine AMD Radeon 5450 gekauft. Die schwächste Radeon überhaupt, aber dafür ist sie passiv gekühlt. Ich wollte mal fühlen wie warm sie denn wird und hab mir ernsthaft die Finger verbrannt. Klar, der Wärmesensor sagt ja auch 72°C. Laut diversen Benchmark-Seiten ist das die Temperatur unter Volllast. Und warum läuft die Karte die ganze Zeit unter Volllast? Weil der Open-Source Radeon Treiber lieber nicht mit den Stromsparmodi rumspielt und lieber auf Volllast läuft. Oh, laut Phoronix kann man per Einstellung dem Treiber erlauben Stromsparmodi zu benutzen, aber:

This option also only works in single-display configurations.

Tja, der Treiber kann das mehr schlecht als recht und ab dem zweiten angeschlossenen Monitor kann er es überhaupt nicht mehr.. Toll. Also mit Linux schont man die Umwelt bestimmt nichtt ;) 
Also wollte ich mal den wieder den proprietären Treiber von AMD ausprobieren, das lief beim letzten Mal ja nicht ganz so gut.  Okay, erstmal schlug die Treiberinstallation "fehl". Naja, nciht wirklich, den Treiber hat Ubuntu mit seinem Tool für propietäre Treiber installiert, aber trotzdem einen Fehler gemeldet. Blöd, dass das berühmt-berüchtigte AMD Control Center nicht läuft. Es läuft schon, aber passiert nix. Wenn man es mal im Terminal startet, dann sieht man auch warum, es beendet sich mti einem "Speicherzugriffsfehler" aka Segmentation Fault aka Segfault. Echt geil. Wenn man mal ein strace macht, dann hilft einem das auch nicht weiter. Er checkt zuletzt die /etc/passwd und stirbt dann einfach. Ok, gegoogelt und das Ergebnis kann einem echt die Tränen in die Augen treiben. Die ältesten Meldungen sind von 2007 und nein, es wurde nie behoben und nein, es gibt keine einfache oder zumindest allgemeingültige Lösung aber zig Ansätze die dem einen oder anderen mal geholfen haben. Ja. das ist doch Qualitätssoftware. Und möchte man 2012 noch eine xorg.conf von Hand schreiben? Ich glaube nicht. 
Möchte man Linux/Unix überhaupt auf dem Desktop haben? Mittlerweile tendiere ich echt zu nein. Vielleicht wenn man zu Treiber/Hardware-Minimalismus neigt und man mit einem VGA-VESA-Framebuffer für X11 zufrieden ist, dann vielleicht ja. Ansonsten Windows bitte. Vielleicht sollte sich Microsoft einen neuen Slogan zulegen "It works!".
Oh, und es ist ncihts AMD-spezifisches. Mein Dienst-Notebook hat eine nVidia-Grafikkarte und Linux war vorinstalliert und es ist dort keinesfalls besser, nur habe ich auf der Arbeit nciht die Zeit mich hier auszukotzen. 

Rubrik: 

RAMDAC reloaded.. AMDs Scheissfinity

So, ich hab jetzt eine neue AMD Radeon mit 1x DVI-D, 1x DVI-I, 1x HDMI und 2x Mini-Display Port Buchsen. Anschliessen möchte ich 2 TFTs und 1 Beamer, alles per DVI. Ich kann aber nur zwei gleichzeitig aktivieren. Mit dem HDMI Adapter hatte ich letzte Woche schon Probleme die 2 Monitore zu aktivieren. Den DVI-I wollte ich freihalten,weil ich dachte dass der Beamer nur Analog frisst (er nimmt aber doch DVI-D wie ich weiss), also hatte ich einen Monitor am DVI-D und einen per DVI/HDMI-Adapter am HDMI Port. Ich konnte aber immer nur einen aktivieren. Desktop Clone oder Extend ging nicht, der andere ging immer schwarz. Hatte vermutet dass es was mit HDCP zu tun haben könnte und hab mir einen MiniDP/DVI-Adapter bestellt und gehofft das es damit klappen könnte. Das wollte gerade auch erst nicht aber dann half ein Reboot. Ok, Beamer noch angeschlossen und der wurde dann auch direkt erkannt, aber liess sich nicht aktivieren, es kam immer die Meldung, das ein anderes Gerät deaktiviert werden müsste. Wieso? Wieso gehen nur 2 Displays, wenn AMD mit Eyefinity doch beliebig viele verspricht? 
Bisschen gegoogelt und dann einen Eintrag in einem Forum gefunden:

Die Radeons haben alle nur 2 Taktgeneratoren drauf. bei DVI und HDMI Monitoren benötigt jeder Monitor einen eigenen Taktgenerator.

Ja, das muss einen doch an die guten alten RAMDACs erinnern. Die haben die Grafikkartensignale in analoge VGA-Signale umgesetzt, bevor die dann an den Monitor geschickt wurden. Die wurden dann nachdem sich digitale Anschlüsse durchgesetzt haben auf den Grafikkarten eingespart und aus DVI-I wurde DVI-D. Man kann also keine VGA-Geräte mehr anschliessen.
Jetzt spart man sich diese Taktgeneratoren ein, ok, es ist was komfortabler, weil man bequem vom Desktop aus umschalten kann und nicht umstecken muss, aber schön ist das trotzdem nicht. Vor allem habe ich nix in dieser Minimal-Online-Doku gefunden und auch in den Meldungen von diesem  AMD Vision Engine Control Center lässt sich nichts herauslesen. Ausserdem wirkt die Software zwar aufgeräumt, aber irgendwie auch aufgeblasen.. ich will mein CCC wieder :( 

Rubrik: