NFS mountd : Stale NFS file handle

Fucking opera crashed again while writing the article. Here the short version:

You try to mount an NFS export which resides on a  xfs file system and the client fails with the message "Stale NFS file handle". A more verbose mount may show these messages: 

mount.nfs: trying text-based options 'vers=3,addr=aaa.bbb.ccc.ddd'
mount.nfs: prog 100003, trying vers=3, prot=6
mount.nfs: trying aaa.bbb.ccc.ddd prog 100003 vers 3 prot TCP port 2049
mount.nfs: prog 100005, trying vers=3, prot=ddd
mount.nfs: trying aaa.bbb.ccc.ddd prog 100005 vers 3 prot UDP port 4002
mount.nfs: mount(2): Stale NFS file handle
mount.nfs: trying text-based options 'vers=3,addr=aaa.bbb.ccc.ddd'
mount.nfs: prog 100003, trying vers=3, prot=6
mount.nfs: trying aaa.bbb.ccc.ddd prog 100003 vers 3 prot TCP port 2049
mount.nfs: prog 100005, trying vers=3, prot=ddd
mount.nfs: trying aaa.bbb.ccc.ddd prog 100005 vers 3 prot UDP port 4002
mount.nfs: mount(2): Stale NFS file handle

The server syslog has entries like:

Sep 9 22:39:17 server rpc.mountd[11413]: authenticated mount request from aaa.bbb.ccc.ddd:809 for /srv/file/xxx (/srv/file/xxx)
Sep 9 22:39:19 server rpc.mountd[11413]: authenticated mount request from aaa.bbb.ccc.ddd:971 for /srv/file/xxx (/srv/file/xxx)
Sep 9 22:39:28 server rpc.mountd[11413]: authenticated mount request from aaa.bbb.ccc.ddd:913 for /srv/file/xxx (/srv/file/xxx)
Sep 9 22:40:20 server rpc.mountd[11413]: authenticated mount request from aaa.bbb.ccc.ddd:853 for /srv/file/xyz (/srv/file/xyz)

Before trying any stuff like turning off IPv6 or replacing portmapper with rpcbind as suggested by some folks, try changing the inode numbers of the exported directories as described in the mailing list entry "XFS, NFS and inode64 on 2.6.27" found via this forum entry.

To make this thing even more stupid, it is noted in the offical XFS FAQ, but in a way that you will not  find it if you run into this problem. Second penalty point for XFS (first one is inability to shrink).

Windows-Laufwerk von GPT nach MBR konvertieren (für TrueCrypt)

Wenn man seine Windows Systemplatte oder auch nur die Systempartition mit Truecrypt verschlüsseln möchte, dann geht das nur mit dem alten "MBR" Bootsektor, nicht mit dem neuen "GPT" Bootsektor, der für UEFI verwendet wird. Im allgemeinen ist für die Daten und Partitionen erstmal egal welcher "Bootsektor" und Partitionstabelle verwendet wird, in beiden sind erstmal alle Partitionen mit ihren Start- und Endsektoren und welchen Typ sie haben, gelistet. Die Konvertierung ist erstmal kein Problem. Linux GPT Editor gdisk kann das direkt.

Leider hängt da noch ein bisschen mehr dran, unter anderem das ganze Bootsystem. Wenn man sein Windows 7 mit UEFI installiert hat, dann kann man mal nicht eben die Partitionstabelle ändern, weil dann das Bootsystem irgendwie auf die Schnauze fliegt. Übrigens sollte man auf einer Platte mit mehr als 2TB doch lieber bei der GPT bleiben.

Die folgende Anleitung basiert auf den Anleitungen von http://www.firewing1.com/node/610 und Hinweisen von aus dem Microsoft Forum. Alleine hat Stewarts (firewing) Anleitung mir nicht geholfen. Ich habe folgende Anleitung auch nicht nochmal durch gespielt, aber so sollte es funktionieren. Wie immer: Ein Backup schadet nie, ich kann Clonezilla auf dem iodd im Dual-Modus wärmstens empfehlen. Vorher ein Backup machen, notfalls ein kompletter Restore. Die richtige Windows 7 CD solltet man auch zur Hand haben .. oder im iodd.

MBR-Konvertierung

  1. Statt firewings Fedora nehmen wir ein aktuelles Grml. Einfach das full Image für beide Architekturen runterladen ("One for both") und auf eine CD brennen oder auf das tolle iodd kopieren. 
  2. Von dieser booten wir dann. Einfach Enter drücken. Wenn  Linux gebootet ist, dann drückt man d um das deutsche Tastatur Layout zu bekommen und anschliessend q um das Menü zu verlassen. 
  3. Dann gdisk starten und das richtige Laufwerk als Parameter, beispielsweise gdisk /dev/sda . Die erste Platte sollte /dev/sda sein. Wenn man nicht sicher ist, ob es das richtige Laufwerk ist, einfach mal lsscsi eingeben und gucken ob's richtige Modell  ist. 
  4. Zur Kontrolle mal p eingeben um sich das Partitionslayout anzuschauen. Sieht es nicht nach der Windows-Platte aus. q drücken und die nächste ausprobieren. 
  5. Jetzt folgende Kommandos eingeben: r für das Recovery/Transformationsmenü, g für die Konvertierung nach MBR, p um sich das ganze Anzeigen zu lassen (sind alle Partitionen da, stimmen die Sektoren?)
  6. Jetzt w drücken und die Änderungen werden geschrieben. Hier ist der Punkt ohne Wiederkehr. 
  7. Der wichtige Hinweis fehlt in Firewings Anleitung. Die Windows Partition wird jetzt nicth als "aktiv" gekennzeichnet sein. Deswegen jetzt fdisk /dev/sda eingeben und nach dem obligatorischen p erstmal a drücken und dann die Nummer der Windows Partition angeben. Mit w dann wieder abspeichern. 
  8. Grml runterfahren: reboot eingeben

Windows reparieren

  1. Das fehlt bei firewing: Im "BIOS" unbedingt in der Boot-Reihenfolge den Windows Eintrag entfernen. Bei mir hiess der einfach "Windows" und dadurch hat das UEFI Bios immer versucht den vermuteten UEFI Bootlader von Windows zu starten, der immer nur einen Fehler meldete, dass sich am Bootlaufwerk geändert hätte. 
  2. Von der Windows CD booten. Den Startbildschirm mit den Ländereinstellungen bestätigen und dann nicht auf das große und mittig positionierte "Jetzt Windows Installieren" klicken, sondern unten auf die Computer Reparatur. 
  3. Windows wird jetzt evt eine Autoreparatur versuchen oder anbieten. Man kann das mal ausprobieren, ausser einem unnötigen Reboot hat man nix zu verlieren. Ausprobieren ob Windows bootet, ansonsten wieder die Win7 CD booten. 
  4. Nicht die untere Option (Systemwiederherstellung) auswählen, sondern die obere. Dann System Start Reparatur (allerste Option) oder so ähnlich auswählen. Die wird evt. was machen, und einen Neustart verlangen. Man kann mal versuchen on Windows bootet. 
  5. Ansonsten Windows CD booten, diesmal unten die letzte Option "Window Reparatur Konsole" oder Eingabeaufforderung oder so ähnlich auswählen. Folgende Befehle absetzen
    • bootrec /fixmbr
    • bootrec /fixboot
    • bootrec /rebuildbcd
    • bootrec /scanos
    • bcdboot C:\Windows

    Sollte bei einem der Befehle die Meldung "Element nicht gefunden" erscheinen, dann ist die Windows Partition nicht aktiv geschaltet. Mit folgenden Kommandos soll man eine Partition aktivieren können (ungetestet, ich habe das mit fdisk gemacht):

    • diskpart
    • list disk
    • select disk <nummer>
    • list partition
    • select partition <nummer>
    • active
    • exit

    Dann die Befehle oben wiederholen. Anschliessend das Fenster schliessen, neustarten und das Beste hoffen.

Zumindestens bei mir bootete Windows dann wieder und TrueCrypt konnte die SSD erfolgreich verschlüsseln. Ein bisschen holprig alles, aber es ging.

 

Rubrik: 

Ungeschriebene Software #1: Adaptive GZip

Mir schwirren Ideen für einige Progamme im Kopf rum, die ich zwar gerne schreiben würde, aber leider keine Zeit dafür habe. Eine Idee wäre ein adaptives GZip oder auch Max-Throughput GZip.

Problem

gzip ist ein Streamkompressor, es komprimiert einfach einen Strom von Daten ohne auf eine besondere Struktur oder auf besondere Inhalte acht zu geben, kurz was es komprimiert, das ist  ihm egal. Meist wird explizit oder implizit in einer Pipe verwendet, also Quelle  | gzip  | Ziel. Beispielsweise tar -c irgendwas | gzip | netcat anderer_rechner um ein Backup auf einem anderen Rechner zu speichern. Statt tar könnte man jetzt auch dd nehmen, oder netcat einfach durch eine Datei ersetzen. Nutzt man tar mit der -z Option,  dann macht es implizit eine interne Pipe auf.

Hier hat man schon zwei Ziele:

  • Höchstmöglichste Kompression
  • Kurzmöglichste Laufzeit (aka Geschwindigkeit, Durchsatz/Throughput)

Hier ist schon der erste Gegensatz, heutige PCs sind selten schnell genug um beides zu liefern. Zu den Beschränkungen (Randbedingungen) gehören

  • Geschwindigkeit der Quelle (wie schnell kann ich lesen)
  • Geschwindigkeit des Ziel (wie schnell kann ich schreiben)
  • Geschwindigkeit der Komprimierung (wie schnell sind CPU/Speicher)
  • Art der Daten (gut komprimierbarer Text, schlecht komprimierbare Binärdaten)
  • Geschwindigkeit der Pipes, der Einfachheit halber den Geschwindigkeiten der Quelle und des Ziels zugeschlagen.
  • Einstellbarer Kompressionsgrad (bei gzip -1 bis -9)

Das bringt uns dann zu folgenden Extremen:

  • Die Quelle ist langsamer als der Kompressor -> stärkere Kompression möglich da Kompressor nicht ausgelastet ist
  • Das Ziel ist langsamer als der Kompressor -> stärkere Kompression möglich, da Kompressor nicht ausgelastet ist
  • Der Kompressor ist langsamer als die Quelle und/oder Ziel -> Kompression runterschalten um den Durchsatz nicht zu bremsen

Natürlich kann sich auch alles während der Ausführung ändern, beispielsweise weil die Daten sich ändern (Text führt zu weniger komprimierten Bytes, Ziel muss weniger entgegennehmen), andere Prozesse dem Kompressor die Rechenleistung stehlen, oder Quelle und Ziel ihre Geschwindigkeit ändern, weil beispielsweise in langsamere Bereiche der Festplatten geschrieben werden.

Der Nutzer kann zwar eine Vermutung anstellen, was die Hardware schaffen könnten und eine angemesse Kompressionsstufe wählen, aber ich bezweilfe dass er jemals das Optimum treffen wrd. Und oftmals werden Backups unter Zeitdruck angefertigt, die möglichst kurze Ausführungzeit ist da Pflicht..

Die Lösung

Adaptive gzip sollte automatisch die Kompressionsstufe anpassen können, sobald es merkt, dass die CPU nicht ausgelastet ist, weil Quelle und/oder Ziel nicht mitkommen, oder es merklich bremst und daher schneller und mit weniger Kompression laufen sollte. Optimalerweise sollte es heutzutage auch multi-threaded sein umd mehrere Prozessoren und Kerne nutzen zu können.

Meines Wissens nach sind mehrere aneinandergefügte gzip Ströme oder Dateien auch ein gültiger gzip Stream, so das man quasi  bei Änderung der Kompressionsstufe einfach den alten Stream abschliesst und einen neuen Stream anfängt und diesen bis zur nächsten Änderung bei behält. Dabei muss natürlich immer ein Blick auf den Füllstand der Ein- und Ausgabepuffer geachtet werden. Die Verarbeitung sollte dabei immer Blockweise geschehen und nach Abarbeitung eins Blocks und vor verarbeiten des nächsten Blocks sollte überprüft werden ob eine Änderung der Kompressionsstufe sinnvoll wäre, basierend auf Pufferfüllstand und wie lange die Puffer bereits gefüllt sind, also warten.  Hier könnte sich schon eine threadbasierte Lösung für Eingabe, Verarbeitung, Ausgabe anbieten.

Von gzip existiert bereits eine parallelisierte Variante namens pigz, welches auf der zlib basiert. Alle drei Programme sind von den gleichen Entwicklern. Als Weiterentwicklung von adaptive gzip könnte man die blockweise Verarbeitung auf mehrere Threads verteilen, dabei müsste die Ausgabe wieder in der korrekten Reihenfolge serialisiert werden, da durch unterschiedliche Kompressionsstufen evt. schwächer komprimierte Blöcke vorherige stärker komprimierte Blöcke überholen könnten.

Wiederholte gzip header könnten evt. den finalen Kompressionsgrad verschlechtern.

Die Entwicklung der Fomel oder des Algorithmus für die Anpassung des Kompressionsgrad könnte durchaus interessant sein....

Leider keine Zeit

Der Teufel steckt bei der Idee wie so oft im Detail und die Details oder Features könnten überhand nehmen. Vielleicht möchte man früher oder später per Parameter die Größe der Blöcke, Puffer, min threads, max  threads und einen bereich für Kompressionsgrad angeben. Wer weiss was sonst für Probleme bei der Implementierung auftreten können. Vielleicht ist die Idee auch nicht zu Ende gedacht. So oder so. Momentan hab ich leider keine Zeit dafür sad.

Der WDR hat festgestellt, das Cola Coffein enthält..

So oder so ähnlich könnte man den WDR Markt Beitrag vom 26.08.2013 zusammenfassen. Okay, Markt hat rausgefunden dass von ihnen so betitelte "Lifestyle Colas"  bis zu 3x soviel Coffein wie Coca Cola enthalten. Eine unglaubliche Enthüllung, es konnte ja keiner ahnen dass die Werbung ausnahmsweise mal nicht lügt... Die Website von fritz-kola ist mit "fritz-kola vielviel koffein" betitelt.  Afri cola schreiben auf ihrer Website:

132% afri. coffitamine-powered.

Die Cola zum Durchstarten: unverwechselbarer afri Geschmack mit fruchtiger Note und 32 mg Koffein/100 ml. Potenzierte Power und Style mit Kultstatus.

Wow.. doch so viel investigativer Journalismus im per Zwangsgebühren-finanziertem Öffentlich-Rechtlichen:

 Doch, was viele nicht wissen, sie enthalten viel mehr Koffein als herkömmliche Cola. markt klärt auf, wo Gefahren lauern können.

Tja, was wohl nur viele beim WDR nicht wussten, oder wissen wollten, man ist ja zum Glück werbefrei.

Dann führt der WDR noch eine Untersuchung mit 2 Laborratten Studentinnen durch und gibt ihnen einen Abend lang drei Flaschen mit diese Giftbrühe zu trinken. Mit erschreckendem Ergebnis:

Und wir messen: Bei beiden steigt der Puls. Bei Kristin von 68 auf 80, bei Pola, die parallel Alkohol trinkt, sogar von 83 auf 95. Ein überraschend hoher Wert.

Am nächsten Tag geht es zur Auswertung der Messergebnisse an der Sporthochschule. Vor allem Pola hat stark reagiert auf ihre Mischung aus Wein und Lifestyle-Coke: Hitzewallungen, koordinative Schwierigkeiten und Einschlafprobleme.

Einschlafprobleme nach Coffeingenuss? Ich bin geschockt. Aber ich muss gestehen, ich bin seit Jahren süchtig nach dieser Droge und bei mir ist schon lange der Gewöhnungseffekt eingetreten. Vielleicht kann der WDR ja mir einen Therapieplatz besorgen. Nebenfrage, ist 83 nicht eh schon ein recht hoher Ruhepuls?

Und das Thema der nächsten Markt-Sendung im WDR:

Gefährliche Giftstoffe im Kaffee gefunden. Millionen Menschen konsumieren täglich unbewusst die psychoaktive Substanz Coffein, manche nehmen diese Substanz sogar bewusst ein. Die Folgen sind erschreckend. Gerade die Entzugssyndrome lassen Menschen wie Scheintote wirken, müde, antriebslos und unfähig zu denken. Ein Markt-Versuch musste nach 2 tagen abgebrochen werden, der Studienleiter verunfallte im frühmorgendlichen Berufsverkehr, er starb friedlich im Schlaf. 

Ich geh dann mal ein paar Symbole in meine Coffein-Tabletten kratzen..

Rubrik: 

Comical Ali: Die NSA Affäre ist beendet

Ja, ich bin 2 Wochen zu spät, aber ich musste eben im Auto irgendwie wieder an "Comical Ali" denken, der im 3. Irakkrieg im Fernsehen auftrat und behauptete die Amerikaner wären geschlagen und würden scharenweise Suizid begehen obwohl der Irak so ziemlich am Ende war. Hatte was von der Endsieg-Propaganda der Nazis.

 

Naja, wäre er deutscher Minister, dann würde er vermutlich sowas von sich geben: 

Natürlich kann man so Einen nicht mit angesehenden Ministern wie Pofalla (Bundesminister ohne besondere Ahnung)  und Friedrichs (Bundesminister des Darminnern) einer westlichen Demokratie vergleichen, wenn die sowas sagen, dann hat das natürlich Hand und Fuss.....

 

 

Rubrik: 

Google lässt einem keine Wahl

Hm, wollte gerade remote Galaxy on Fire 2 THD  auf meinem Tablet installieren. Hab aus Versehen bei Play Store statt der App-Verwaltung den "Geräte-Manager" geöffnet und landete hier: 
Google  Dialog ohne Alternativen
Mal davon abgesehen, dass einem gar nicht wirklich erklärt wird um was es geht und was die Folgen sind, bietet einem Google ganz alternativlos einem nur an zu akzeptieren was Google möchte. So ganz wie Marlon Brando in der "Der Pate": "Ich mache dir jetzt ein Angebot dass du nicht ablehnen kannst". Gut, Browser schliessen geht immer, aber so ganz sauber find ich das nicht. 
Dabei wollte Google doch nie so werden wie ich.
 
 

Fishlabs Galaxy on Fire 2 HD: Free2Play oder Forced2Pay?

Ich hatte letztes Jahr mein neues Android-Tablet mit dem Spiel Galaxy on Fire 2 THD (Das T ist wohl für den Tegra-Chipsatz) von Fishlabs eingeweiht. Shareware-Like konnte man die ersten Missionen gratis spielen, dann musste man das Spiel kaufen. Okay. Leider hab ich dann am Ende rausgefunden, dass die bis dato veröffentlichten Erweiterungen oder DLCs für diese Version nicht geplant waren. Ich meine in irgendeinem Forum gelesen zu haben, die Entwickler meinte, da müsste sich erst ein Sponsor finden, damit das passiert. (Wer die Quelle hat, bitte Link zu schicken). Komische Einstellung, man hat die Engine portiert, der Content wurde produziert, wo ist das Problem die Erweiterungen dann noch rauszubringen?

Naja, von mir unbemerkt wurde vor kurzem das "richtige" Galaxy on Fire 2 HD für Android veröffentlicht. Diesmal mit den kostenpflichtigen Erweiterungen. Dafür ist jetzt das Basis-Spiel kostenlos spielbar. Denkt man. Im Originalspiel wird man sich wohl ziemlich schnell einen Traktorstrahl zu legen um abgeworfene Fracht aufzunehmen oder um die gutbezahlten Missionen wo man Sachen oder Personen zurückholen muss, erledigen zu können. Das Ding kostet da unter 9000 Credits und macht sich schnell bezahlt. Nach den ersten 3 freien Missionen (~5Min) hat man das Geld und hat nebenbei sein Schiff noch aufgerüstet.
Im neuen Spiel kostet das Ding dann 150.000. Dafür kriegt man direkt am Anfang den Hinweis, wenn man nicht genug Credits hat, dann kann man sich jederzeit mit harten Euros welche Kaufen. 100.000 kosten dann 1,79€. Nebenbei wurde noch der leichte Schwierigkeitsgrad aus irgendeinem Grund entfernt.

Interessant ist dann eine stelle wo man einen Traktorstrahl braucht. Im Spiel bekommt man dann 20.000€ und den Hinweis die Dinger wären teuer, aber gerade würde in der Space Lounge jemand einen billiger verticken. Aber nur wenn man jetzt direkt kauft. Kostet dann 100.000 Credits (~ 1,79€ bei aktuellem Umrechnungskurs). Joa, im alten Spiel hätte das Geld dann locker gereicht, wenn man nicht eh schon eine hatte.

Okay, man könnte jetzt 30-60min opfern um "stupide" Missionen runter zu reissen um an das Geld zu kommen. Trotzdem fühle ich mich verarscht. Das Spiel (und vielleicht auch die Balance) wurde gezielt geändert um dem Kunden doch noch ein bisschen mehr Geld aus der Tasche zu ziehen. Würde vielleicht ja normalerweise nicht so eklatant auffallen, wenn man es nicht so direkt mit der vorherigen Kaufversion vergleichen könnte. Dafür wird man dann noch genervt man soll doch bitte das Spiel bewerten. Hey, das alte THD hab ich gut bewertet. Aber bei so einer Verarsche bleibt nur der eine Stern übrig. Weniger geht ja nicht.

Und beim pflichtbewussten Kaufen direkt am Anfang hab ich wohl daneben getippt und statt dem Kaamo CLub erstmal die Valkyrie Erweiterung für 4,xx€ gekauft um mir dann 10 sek später die Valkyrie+Supernova Erweiterung für knapp 9€ zu kaufen und um dann zu merken, dass ich mich vertippt habe, der Kaamo Club mir fehlt und ich 4,xx€ in den Sand gesetzt habe. Ich könnt kotzen.

Bescheuerte Mülltrennung im Rhein-Neckar-Kreis

Hab gerade einen schlechten Tag.. und frag mich wie gehirnamputiert die Leute der "AVR Abfallverwertungsgesellschaft des Rhein-Neckar-Kreises mbH" sind. Aber neben der herrlich beschissenen Webseite (erstellt mal einen Link auf die 3. Seite des Buchstaben A des Abfall ABCs oder klickt euch mal zum überhaupt nicht erklärten Abfuhrkalender einer beliebigen Strasse eines beliebigen Kaffs durch) gibt's noch dieses herrlich unübersichtliche und absolut bescheuerte Abfall-ABC: 

Hier mal ein Ausschnitt vom Buchstaben A

RNK Müllabc "A"
 

Okay, bei den Antennen kann man vielleich noch verstehen, dass die Fernsehantenne doch was anderes als die Auto-Antenne ist (Nee, das ist keine Fernsehantenne, die hatte ich auf dem Auto... für vollen Empfang!). Aber was mag die Anhänger-Kupplung von der Anhängerkupplung unterscheiden, so dass die die Anhänger-Kupplung auf den Schrott muss? Der Bindestrich? Bindestriche sind einfach schrott, oder wie? 

Immerhin haben sie eine App und ja.. man glaubt es kaum, sogar https! Ey, eine Website aus dem letzten Jahrtausend, aber immerhin mit Verschlüsselung. So wird die NSA nie erfahren, dass ich mich für bestimmte ääh Wertstoffe interessiere. Aber ja.. ich find die Verschlüsselung ist wenigstens ein Lichtblick auf dieser Seite.

Und ich find das mittlerweile aufgeweichte Müllkonzept der Rhein-Sieg-Kreis besser. Immerhin sammeln wir Altpapier und Bio-Müll sortenrein.. zumindestens theoretisch.

 

Wer wissen will was AVR überhaupt bedeutet, der sollte mal ins Impressum gucken. Das dürfte der kürzeste Weg sein. 

Rubrik: 

BILD-Zeitung: "Symbolfoto" in Niederkassel

Am Dienstag hat es leider einen tödlichen Unfall in Niederkassel auf der Strasse zwischen Uckendorf und Niederkassel gegeben. Interessanterweise war der Focus die erste Zeitung die drüber berichtete, die BLÖD-Zeitung und der EXPRESS brauchten 2 Tage um was drüber zu schreiben (nicht sehr "EXPRESS" oder?). An den Überschriften könnte man schon die Zeitungen erkennen, man vergleiche Focus: Unfälle: Autofahrer stirbt bei Zusammenstoß, Express: Polizei sucht Zeugen - Tödlicher Unfall: War Golf-Fahrer zu schnell? und BLÖD: Frontal-Crash | Smart-Fahrer totgerast

Interessant ist das dritte Bild der Bilderstrecke des BLÖD-Artikels. Anscheinend gab es kein schönes Leichensack-Foto von dem Unfall, so das man sich irgendwo anders bedienen musste. Warum passt das Bild nicht? 

  1. Das Bild muss von Osten aus aufgenommen worden sein, sonst wäre die Hecke (oder vermutlich der Wald auf dem BLÖD-Foto) nicht links. Ein Satellitenfoto der Stelle habe ich bei Google Maps verlinkt.
    Es gibt keine Strasse (vor allem mit Mittellinie) die parallel zu der Unfallstrasse geht und von der aus man das hätte fotograhieren können. Die Einmündung der Kiesgrubenstrasse hat keine Mittellinie und abgesehen davon wäre dann die Hecke im Weg. Parallel ist sie auch nicht. 
  2. Die Felder sind teilweise bewachsen.  Bei der Konkurrenz vom General-Anzeiger sieht man dass die Felder eher kahl sind. Und es ist ein großes durchgehendes Feld, bei der Bild sind mindestens zwei Felder zu sehen. Die BLÖD-eigenen Fotos der Unfallwagen passen auch nicht zu den Felder auf dem Foto. 
  3. So dicht bewachsen ist die Golfplatz-Hecke dann doch nicht. 
  4. Eher ein Indiz, aber beim GA sieht man dem Ereignis entsprechendes trübes Wetter mit Wolken. Auf dem BLÖD Foto ist wohl bestes Wetter. 

Es passt einfach nicht. Und das Blatt ist ja auch für die Symbolfoto-Verwendung berüchtigt

 

Ich mach mal ein paar Beweisscreenshots, falls das Bild nach meinem Hinweis verschwinden sollte ;) Gibt's dann hier zu sehen. 

 

Blog jetzt auch verschlüsselt

So, als Teil des Wunsches doch vemehrt Verschlüsslung einzusetzen, ist jetzt das Blog SSL-verschlüsselt, sowohl http also auch https gehen. Es gibt hier zwar nichts wirklich schützenswertes, aber ich denke, dass jeder im Netz jetzt versuchen sollte soviel Kommunikation wie möglich zu verschlüsseln, egal wie unwichtig sie sein mag. Auch wenn es Gerüchte gibt, dass die Geheimdienste auch so einiges entschlüsseln können, sollte es doch ein Ziel sein, soviel Krypto-Rauschen zu erzeugen, dass evt. die Effektivität des Abhörens und Knackens runter geht. 

Technisch sind momentan zwei Punkte erwähnenswert:

Server Name Indication (SNI)

Da ich mehrere Sites auf diesem Server unter der gleichen IP hoste, kann ich eigentlich nur eine Domain verschlüsseln. Denn eigentlich wird die Verschlüsselung ausgehandelt bevor der Webserver weiss welche Site/Domain angefragt wurde. Server Name Indication (SNI) ist eine neuere Erweiterung und löst das Problem, so dass man mehre SSL-Zertifikate mit einer IP-Adresse hosten kann. Das einzige Problem ist jetzt nur, das Windows XP mit allen Internet Explorer Versionen das nicht kann. Und dann immer eine Fehlermeldung anzeigt ("There is a problem with this website's security certificate"), die man aber zumindestens wegklicken kann. Akzeptabel für mich.

Natürlich könnte man für alle Domains auf dem Server das gleiche Zertifikat (gerne auch Self-Signed) nutzen, aber dann würde viel mehr Browser Fehler anzeigen, und gerade der Firefox Dialog dürfte für DAUs Endstation sein. 

SNI einrichten ging supereinfach. Man muss einfach nur weitere Virtual Hosts mit eigenen Zertifikaten einrichten. Ich hätte mit größerem Aufwand gerechnet.

Grüne Browser-Adresszeile

Das andere Problem ist die gewünschte grüne oder auch gelbe (hauptsache "sicher") Browser-Adresszeile. Momentan kann ich die nicht bekommen, da der Blog leider "mixed content" hat, also sowohl verschlüsselten als auch unverschlüsselt Inhalt hat. An sich ist der Blog komplett "self-hosted", aber leider sind auch der Zählpixel der VG Wort und rechts der Kickstarter-Iframe eingebunden, und die sind beide unverschlüsselt. Kickstarter ist erstmal kein Problem, die können auch https, es ist nur Fleissarbeit alle URLs umzuschreiben. VG Wort ist ein anderes Problem. Die können momentan wohl kein https. Aber ich frag mal nach. Viel Hoffnung hab ich bei so einer Organisation aus dem letzten Jahrtausend ja nicht.  Da bleibt nur die Entscheidung "grüne Browserzeile" oder Zählpixel.

Ansonsten läuft evilazrael.de gerade mit einem kostenlosen 30-Tage Testzertifikat von Comodo. Ich hab gerade einen Anbieter gefunden der nur 5 USD/Jahr haben will. Da hab ich gerade eine Presales-Anfrage hingeschickt. Wenn die positiv zurück kommt, dann tausch ich das Zertifikat gegen ein richtiges aus. 

Nachtrag 07.08.2013

Eine Antwort von CheapSSLs.com habe ich zwar nicht bekommen, aber deren Comodo Zertifikate bieten zum Glück auch die Unterstützung für die Domain selber und das www. davor. Interessanterweise gehört CheapSSLs.com zu Namecheap, dort sind die gleichen CAs um einiges teurer. Für das Zertifikat selber wird 100% auf die Comodo Infrastruktur zurück gegriffen. Für ein 5-Jahres Zertifikat zahlt man nur 25USD (also 5USD/Jahr), was bislang das günstigste ist, was ich gefunden habe. 

Die Kickstarter iframes hab ich schon auf https umgebastelt, bleibt noch das VG Wort Problem. Bin mal gespannt, wann ich von denen eine Antwort kriege. 

 

Nachtrag 11.08.2013

CheapSSLs läuft einem wie ein kleines Hündchen nach und gibt noch mal 10% Rabatt mit dem Coupon-Code MissedYou. Boah, ich hasse Retargeting

Pages