Wenn Server nach einem Neustart die Netzwerkkarten vertauscht haben

Ich hatte letztlich das Problem, dass sich Netzwerkkarten bei Linux und Windows nach einem Neustart immer wieder vertauschten. Da die Server dadurch über Netzwerk nicht mehr erreichbar sind und ausfallen, ist das natürlich sehr ärgerlich. Da ich jetzt gerade eine neuen Firewall auf Basis von Ubuntu Linux mit 9 Netzwerkkarten und 100 VPN-Tunneln eingerichtet habe, wollte ich das Problem auf jeden Fall verhindern. Deshalb habe ich das Problem noch mal genauer untersuch und viel Doku dazu gelesen. Jetzt ist mir klar warum das Problem auftritt und ich kann es zukünftig verhindern.

Ursache: Da die Betriebssysteme zum schnellen Booten alles parallel starten, kommt es beim Booten regelmäßig dazu, dass die Hardwaretreiber in anderer Reihenfolge geladen werden. Wenn man im Server zwei Netzwerkkarten mit unterschiedlichen Treibern hat, kann dabei die Reihenfolge vertauscht werden, in der die Treiber geladen werden. Da bei älteren Windows- und Linuxservern die Netzwerkkarten einfach nur anhand der Startreihenfolge durchnummeriert werden, kann es somit vorkommen, dass die IP-Konfiguratiuonen der Karten durcheinander gewürfelt werden.

Lösung bei neueren Betriebssystemen: Bei neueren Betriebssystemen wird das Vertauschen der Karten verhindert. Windows merkt sich inzwischen für welche Karte eine Konfiguration war und zählt bei neuen Karten einfach immer weiter hoch. Es bindet (vermutlich anhand der Mac-Adresse oder Seriennummer) die Konfiguration fest an eine Netzwerkkarte und vergibt eine bereits vergebene Nummer kein zweites mal. Deshalb hat man bei Windows auch machmal einen Netzwerkadapter 5 oder 6, obwohl aktuell nur eine Karte im Betriebssystem steckt. Bei Linux wird der Steckplatz der Karte mit in den Namen der Netzwerkkarte aufgenommen. Eine Netzwerkkarte auf PCI-Slot 2 heißt dann z.B. p2p1, wobei das p2 dann für den PCI-Slot 2 und das p1 für den ersten Port der Karte steht. Theoretisch kann man bei Linux also eine neue Karte in den gleichen Slot stecken und die Konfiguration sollte noch funktionieren.

Veröffentlicht unter Computer & Technik, Hersteller, Kommunikationstechnik, Linux, Windows | Verschlagwortet mit , , , , , , , | 1 Kommentar

Debian: Upgrade von 6.0 (Squeeze) auf 7.0 (Wheezy)

Ein Upgrade eines Debian Systems von Version 6.0 (Squeeze) auf Version 7.0 (Wheezy) ist so simpel geblieben wie das vorherige Upgrade. Ich habe das Upgrade für diverse Server wie folgt durchgeführt.

Datensicherung
Als erstes sollte das bestehende System mit einer Datensicherungssoftware gesichert werden. Dazu kommen eine ganze Reihe von Programmen wie cpio, tar, amanda oder rsnapshot infrage. Nähere Infos zu Backupsoftware unter Linux kann man in meinem Artikel Backup-Software für Linux nachlesen.

Danach sollte eine Liste der Installierten Software-Pakete erstellt werden, damit man im Notfall wieder ein System mit identischer Software installieren kann. Eine Anleitung dazu ist in meinem Artikel Ubuntu/Debian: Die gleiche Software auf einem neuen Computer installieren zu finden.

Einspielung aller Updates für das bestehende Debian
Bevor das eigentliche Upgrade auf die Version 6.0 gemacht wird sollten alle Updates für die alte Version eingespielt werden. Dazu muss zunächst die source-list aktualisiert werden:

aptitude update

Danach können die Updates installiert werden:

aptitude upgrade

Anpassen der sources-list
Damit die neuen Pakete gefunden werden, muss in der source-list das Wort lenny gegen squeeze getauschen werden. Die source-list befindet sich in der Datei /etc/apt/sources.list. Die Datei sollte nach den Änderungen etwa wie folgt aussehen:

deb http://ftp.de.debian.org/debian/ wheezy main
deb http://ftp.de.debian.org/debian/ wheezy contrib
deb http://ftp.de.debian.org/debian/ wheezy non-free
deb-src http://ftp.de.debian.org/debian/ wheezy main
 
# Security-Updates
deb http://security.debian.org/ wheezy/updates main contrib
deb-src http://security.debian.org/ wheezy/updates main contrib

Upgrade
Nun muss erneut die source-list aktualisiert werden:

aptitude update

Danach werden zuerst die Update-Werkzeuge aktualisiert:

aptitude install apt dpkg aptitude

Zum Schluss wird dann der Rest der Pakete aktualisiert:

aptitude full-upgrade

Während der Aktualisierung der einzelnen Software-Pakete wird dann ab und zu noch die ein oder andere Frage gestellt, bevor der abschließende Neustart fällig wird. Nach dem Neustart ist das Upgrade abgeschlossen.

Veröffentlicht unter Computer & Technik, Linux | Verschlagwortet mit , , | Hinterlasse einen Kommentar

Probleme bei der Virtualisierung mit Ubuntu 14.04 LTS und KVM

Nachdem Ubuntu 14.04 LTS jetzt schon über zwei Monate alt ist, habe ich die ersten Server migriert. Ich hatte gehofft, dass die meisten schlimmen Fehler inzwischen behoben sind und man das System ohne größere Probleme betreiben kann.

Als ich den ersten Server für Virtualisierung migrierte, erwies sich meine Annahme aber leider als falsch. Zunächst liefen die Gast-Betriebsysteme ohne Probleme und dank der Technik Hyper V von Microsoft auch viel schneller als vorher. Je nach Auslastung wurden sie aber zunehmend langsamer und stürzten nach 3 bis 12 Stunden ganz ab. Die Windows-Gäste standen dann im Bluescreen und die Linux-Gäste hatten eine Kernelpanik.

Wie sich zeigte gibt es im Linux-Kernel 3.13 von Ubuntu 14.04 wohl noch einige Bugs, die früher oder später für einen Absturz der Gast-Betriebssysteme sorgen:

Nach diversen erfolglosen Versuchen das Problem in den Griff zu bekommen, stieß ich auf einen Blog-Post von Peter Kieser. Dieser machte den Vorschlag, den erprobten Linux-Kenel 3.10 mit Langzeitsupport für Ubuntu 14.04 zu kompilieren. Dieser Kernel wird auch bei RedHat Enterprise Linux verwendet, ist für Virtualisierung erprobt und er löste alle meine Probleme! Und dies geht wie folgt (ggf. kann man natürlich auch einen neueren Patchlevel des 3.10er Kerbels verwenden):

apt-get -y install build-essential
cd /usr/local/src
wget https://www.kernel.org/pub/linux/kernel/v3.x/linux-3.10.46.tar.xz
tar -Jxf linux-3.10.46.tar.xz
cd linux-3.10.46
cp /boot/config-`uname -r` .config
make olddefconfig
make -j`nproc` INSTALL_MOD_STRIP=1 deb-pkg
dpkg -i ../*.deb
apt-mark hold linux-libc-dev

Außerdem machte Peter Kieser noch einige Tuning Vorschläge, die er auch durch den Vergleich mit RedHat Enterprise Linux gefunden hatte. Ich habe mir davon die Verwendung des e1000 Netzwerkkartentreibers bei den Windows-Gästen, die Einträge für Hyper V in der Konfig der Windows-Gäste, die Anpassung von Grub und die Einträge in der /etc/sysctl.conf abgeschaut.

Einträge für Hyper V in der Konfig der Windows-Gäste

In die Konfig der Windows-Gäste müssen – sofern noch nicht vorhanden – die folgenden Zeilen in den Abschnitt „features“ eingetragen werden:

  <hyperv>
    <relaxed state='on'/>
    <vapic state='on'/>
    <spinlocks state='on' retries='4096'/>
  </hyperv>

In die Konfig der Windows-Gäste gelangt man am einfachsten, wenn man in der virsh

edit <Name der virtuellen Maschine>

eingibt. Man landet dann mit einem vi in der Konfig und wenn man den vi beendet, wird die Konfig auch gleich richtig gespeichert.

Die Datei sollte nach den Änderungen etwa wie folgt aussehen:

<domain type='kvm'>
  <name>WKSNUE01</name>
  <uuid>cce892d2-8fee-3add-f25d-6a46b1f14268</uuid>
  <memory unit='KiB'>4194304</memory>
  <currentMemory unit='KiB'>4194304</currentMemory>
  <vcpu placement='static'>1</vcpu>
  <os>
    <type arch='x86_64' machine='pc-1.0'>hvm</type>
    <boot dev='hd'/>
  </os>
  <features>
    <acpi/>
    <apic/>
    <pae/>
    <hyperv>
      <relaxed state='on'/>
      <vapic state='on'/>
    </hyperv>
  </features>
  <clock offset='localtime'/>
  <on_poweroff>destroy</on_poweroff>
  <on_reboot>restart</on_reboot>
  <on_crash>restart</on_crash>
  <devices>
    <emulator>/usr/bin/kvm</emulator>
    <disk type='file' device='disk'>
      <driver name='qemu' type='qcow2'/>
      <source file='/daten/images/WKSNUE01.img'/>
      <target dev='hda' bus='ide'/>
      <address type='drive' controller='0' bus='0' target='0' unit='0'/>
    </disk>
    <controller type='ide' index='0'>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x1'/>
    </controller>
    <controller type='usb' index='0'>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x2'/>
    </controller>
    <controller type='pci' index='0' model='pci-root'/>
    <interface type='network'>
      <mac address='52:54:00:14:8c:a5'/>
      <source network='default'/>
      <model type='rtl8139'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/>
    </interface>
    <serial type='pty'>
      <target port='0'/>
    </serial>
    <console type='pty'>
      <target type='serial' port='0'/>
    </console>
    <input type='tablet' bus='usb'/>
    <input type='mouse' bus='ps2'/>
    <input type='keyboard' bus='ps2'/>
    <graphics type='vnc' port='-1' autoport='yes'/>
    <sound model='ich6'>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/>
    </sound>
    <video>
      <model type='vga' vram='9216' heads='1'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0'/>
    </video>
    <memballoon model='virtio'>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/>
    </memballoon>
  </devices>
</domain>

Anpassung von Grub

In der Datei „/etc/default/grub“ sollten für den Linux-Kernel „Headline scheduler“, and „transparent hugepages“ eingeschaltet werden. Dies macht macht man in der Variable „GRUB_CMDLINE_LINUX_DEFAULT“. Die Zeile mit der Variable sollte dazu wie folgt aussehen.

GRUB_CMDLINE_LINUX_DEFAULT="elevator=deadline transparent_hugepage=always"

Damit die Anpassung aktiv wird muss man noch den folgenden Befehl eingeben.

update-grub

Einträge für die Datei /etc/sysctl.conf

kernel.sched_min_granularity_ns=10000000
kernel.sched_wakeup_granularity_ns=15000000
vm.dirty_ratio=10
vm.dirty_background_ratio=5
vm.swappiness=10
Veröffentlicht unter Computer & Technik, Hersteller, Kommunikationstechnik, Linux | Verschlagwortet mit , , , , , , , | 7 Kommentare

Das Tunneln von X11 über SSH bei Ubuntu 14.04 geht nicht

Zu meiner Überraschung funktionierte das Tunneln von X11 über ssh auf einem Ubuntu 14.04 Server nicht mehr. Schon beim Login über den Befehl

ssh -X <Hostname>

gibt es den Fehler „X11 forwarding request failed on channel 0“,
obwohl in der /etc/ssh/sshd_config der Eintrag „X11Forwarding yes“ gesetzt ist.

Auch eine Installation der der XServer Utils

apt-get install x11-xserver-utils

brachte keine Lösung und nicht einmal xclock lief.

Nach ein bisschen Suchen stellt ich fest, dass das Paket xauth fehlt. Wenn man dieses nachinstalliert funktioniert auch das Tunneln von X11 über SSH wieder.

apt-get install xauth
Veröffentlicht unter Computer & Technik, Hersteller, Kommunikationstechnik, Linux | Verschlagwortet mit , , , , , , | Hinterlasse einen Kommentar

VPN-Anbindung eines Internetservers mit strongSwan 4.2

Bei mir kommt es immer häufiger vor, dass ein Webserver Zugriff auf sensible Dienste eines Servers im internen Netzwerk erhalten soll. Um diesen Zugriff so sicher wie möglich zu gestallten, sollte die dazu notwendige Netzwerkverbindung verschlüsselt werden. Also muss eine VPN-Verbindung her.

Bei Linux-Servern kann man diese Verbindung ganz einfach mit der Software strongSwan einrichten. Bei den meisten Linux-Distributionen ist das dazu nötige Paket enthalten und schnell installiert. Bei Ubuntu 12.04 geht dies z.B. ganz einfach mit dem folgenden Befehl:

sudo apt-get install strongswan

Um die software einzurichten ist noch ein geheimes Kennwort für den Verbindungsaufbau und eine Konfiguration für die VPN-Verbindung notwendig. Das Kennwort wird in der Datei /etc/ipsec.secrets festgelegt. Wenn der Internetserver die IP 144.133.122.111 und die Firewall des internen Netzwerkes die IP 143.132.121.110 hat, müsste die Datei die folgende Zeile beinhalten (das Kennwort sollte natürlich anders sein):

144.133.122.111 143.132.121.110 : PSK 'HierKommtEinGeheimesLangesKennwortHin'

Die Konfiguration der VPN-Verbindung erfolgt in der Datei /etc/ipsec.conf. Für eine Verbindung mit dem Namen InternesNetzwerk kommt der folgende Abschnitt in die Datei:

conn InternesNetzwerk
        left=144.133.122.111
        leftsubnet=144.133.122.111/255.255.255.255
        right=143.132.121.110
        rightsubnet=172.30.4.0/255.255.255.0
        leftid="144.133.122.111"
        rightid="143.132.121.110"
        ike=aes128-sha-modp1536,aes128-sha-modp1024,aes128-md5-modp1536,aes128-md5-modp1024,3des-sha-modp1536,3des-sha-modp1024,3des-md5-modp1536,3des-md5-modp1024
        esp=aes128-sha1,aes128-md5,3des-sha1,3des-md5
        ikelifetime=1h
        keylife=8h
        dpddelay=30
        dpdtimeout=120
        dpdaction=restart
        pfs=yes
        authby=secret
        auto=start
	keyexchange="ikev1"

Bei der Verbindung werden die zuvor schon genannten IP-Adressen von Webserver und Firewall verwendet. Ferner ist ein interner IP-Bereich 172.30.4.0/24 für das interne Netzwerk konfiguriert. Für die IPSec Verbindung wurde IKE in der Version 1, Dead Peer Detektion, Perfect Forward Seurity und einige andere übliche Einstellungen gesetzt. All diese Einstellungen müssen natürlich den jeweiligen Gegebenheiten angepasst werden. Außerdem müssen die IPSec Parameter denen der Firewall entsprechen.

Wenn auch die Firewall auf der Gegenseite eingerichtet ist, lässt sich die Konfiguration durch einen Neustart von strongSwan bzw. IPSec aktivieren.

sudo /etc/init.d/ipsec restart

Danach kann man sich mit dem Befehl

sudo ip xfrm state

oder dem Befehl

sudo ip xfrm policy

anzeigen lassen, ob ein Tunnel zustande gekommen ist. Eventuelle Fehlermeldungen sind wie immer in der Datei /var/log/syslog zu finden. Wenn man die letzen 50 Zeilen anzeigen lassen möchte also einfach den folgenden Befehlt eingeben:

tail /var/log/syslog -n 50
Veröffentlicht unter Computer & Technik, Kommunikationstechnik, Linux | Verschlagwortet mit , , , , , , , | Hinterlasse einen Kommentar

BitCoin Mining mit ASIC’s unter Ubuntu

Schneller als mit CPU oder GPU lassen sich BitCoins mit sogenannten ASIC finden, die speziell für das berechnen von SHA256 Hash-Werten konzipiert wurden. Diese gibt es in Form von großen Blechkisten und inzwischen sogar als Erweiterung für den USB-Anschluss.

USB ASICDa die ASIC enorme Hitze erzeugen, sollten diese gut gekühlt werden. Bei den USB-Varianten empfiehlt es sich deshalb einen zusätzlichen USB-Ventielator zu installieren.

Die Installation unter Linux ist relativ leicht. Am besten man kompiliert sich den cgminer oder den bfgminer. Um einen AntMiner U1 USB-Miner mit bfgminer unter Ubuntu Linux in betrieb zu nehmen. Sind z.B. die folgenden Schritte notwendig:

apt-get install screen git make autoconf libtool libncurses-dev yasm curl libcurl4-openssl-dev libjansson-dev pkg-config libudev-dev libusb-dev uthash-dev libsensors4-dev libmicrohttpd-dev libevent-dev libusb-1.0-0-dev
git clone https://github.com/luke-jr/bfgminer
cd bfgminer/
./autogen.sh
./configure
make
screen -d -m -S antminer /root/bfgminer/bfgminer -S antminer:all -o <server-url> -u <worker-name> -p <password> --set-device antminer:clock=x0981

Wenn man danach sehen möchte was der bfgminer so macht. Muss man einfach den folgenden Befehlt eingeben (näheres dazu finden man mit dem Befehlt man screen):

screen -x antminer
Veröffentlicht unter Computer & Technik, Linux | Verschlagwortet mit , , , , , | 2 Kommentare

BitCoin und LiteCoin Mining mit GPU’s unter Ubuntu

Nachdem in letzter Zeit immer mehr über BitCoins gesprochen wurde, wollte ich auch mal versuchen welche zu finden. Das finden von BitCoins basiert auf der Suche nach SHA256 Hash-Werten, die bestimmte Eigenschaften aufweisen müssen. Eine genauere Beschreibung von BitCoins und wie man diese findet ist bei Wikipedia zu finden.

Das finden von BitCoins ist durch den stetig steigenden Rechenaufwand bei der Suche jedoch immer schwieriger geworden. Deshalb ist es inzwischen unrentabel die BitCoins mit normalen CPU’s von Computern zu suchen, da die Stromkosten wesentlich höher sind als der der Wert der gefundenen BitCoins. Deutlich schneller und mit geringeren Stromkosten können aktuelle Grafikkarten BitCoins finden. Ihre CPU’s können die SHA256 Hash-Werte effektiver errechnen. Aber selbst mit den CPU’s von Grafikkarten lohnt sich das eigentlich kaum noch. Dennoch wollte ich zunächst einmal mit einen PC und einer Grafikkarte anfangen. Also habe ich in einem meiner Computer kurzer Hand die Grafikkarte umfunktioniert und sie für das finden von BitCoins verwenden.

Wie sich rausstellte war es aber gar nicht so leicht die Grafikkarte dazu zu bringen. Einige Anleitungen im Internet funktionierten zumindest mit dem installierten und aktuellen Ubuntu 13.10 nicht. Das mag auch daran liegen, dass die meisten Anleitungen für ältere Ubuntu-Verionen geschrieben waren. Nach zwei Stunden hatte ich jedoch keine Lust mehr die Probleme zu finden und zu lösen. Also nahm ich die neuste Anleitung, die ich gefunden hatte und befolgte diese Schritt für Schritt. Die Anleitung stammt aus dem Blog Silverlinux Da diese auf einem „Ubuntu 13.04 Server 64 Bit“ basierte, installierte ich zunächst ein frisches „Ubuntu 13.04 Server 64 Bit“ auf dem PC und führte folgende Schritte durch:

Update des Server
sudo apt-get update
sudo apt-get dist-upgrade
sudo reboot
Download und Installation der Treiber
Download der fglrx Treiber (Da die aktuellen Treiber nicht zu funktionieren scheinen ist es wichtig die Version 13.8 beta zu nehmen). Weil AMD keine direkte Verlinkung zulässt, sollte der Download über einen Webbrowser erfolgen und kann nicht mit wget gemacht werden.
http://www2.ati.com/drivers/beta/amd-catalyst-13.8-beta2-linux-x86.x86_64.zip
Bei der R9 290 oder anderen neueren Grafikkarten muss eventuell zunächst die Grafikumgebung und erst dann der Treiber installiert werden.
http://support.amd.com/us/gpudownload/linux/Pages/radeon_linux.aspx
Installation einiger notwendiger Pakete
sudo apt-get install dh-make dh-modaliases execstack libxrandr2 libice6 libsm6 libfontconfig1 libxi6 libxcursor1 libgl1-mesa-glx libxinerama1 libqtgui4
Installationsprogramm auspacken
unzip amd-catalyst-13.10-beta2-linux-x86.x86_64.zip
chmod +x amd-catalyst-13.10-beta2-linux-x86.x86_64.run
.deb Pakete für fglrx bauen
./amd-catalyst-13.10-beta2-linux-x86.x86_64.run --buildpkg Ubuntu/raring
Installation der Pakete für fglrx
sudo dpkg -i fglrx*.deb
sudo apt-get -f install
sudo reboot
(Das funktioniert wegen einigen Abhängigkeiten zunächst nicht. Dies kann aber durch den Befehl „apt-get -f install“ behoben werden)
Bei mehreren Grafikkarten muss eventuell auch noch konfiguriert werden, dass alle verwendet werden.

sudo aticonfig --initial --adapter=all
Installation des APP SDK von AMD
Download des APP SDK von der folgenden URL:
Auspacken des APP SDK und Neustart des Computers
tar xvf AMD-APP-SDK-v2.8.1.0-lnx64.tgz
sudo ./Install-AMD-APP.sh
sudo reboot
Installation der minimalen X Server Pakete
sudo apt-get install xdm xorg

Authorization des xdm abschalten

sudo vi /etc/X11/xdm/xdm-config
die folgende Zeile
DisplayManager*authorize:       true
gegen diese ersetzen
DisplayManager*authorize:       false
Speichern und neu starten.
sudo reboot
cgminer kompilieren and testen
Installation von Git und Unzip
sudo apt-get install git unzip
Download von cgminer
git clone -b 3.7 https://github.com/ckolivas/cgminer
Achtung! cgminer 3.7.2 ist die letzte Version mit Unterstützung von GPU (siehe: https://bitcointalk.org/index.php?topic=28402.msg3538435#msg3538435).
Download entpacken und einbinden des AMD ADL SDK (für das überwachen des Temperatur und des Ventilators, usw)
unzip ADL_SDK_5.0.zip
cp include/* ./cgminer/ADL_SDK/
Installation einiger benötigter Pakete für die kompilierung des cgminer
sudo apt-get install build-essential autoconf libtool libcurl4-openssl-dev libncurses5-dev pkg-config libudev-dev
cgminer kompilieren vorbereiten
cd cgminer
./autogen.sh
./configure --enable-opencl --enable-scrypt

folgende Zeilen sollten nach dem confiugure auftauchen:
OpenCL……………: FOUND. GPU mining support enabled
scrypt……………: Enabled
ADL………………: SDK found, GPU monitoring support enabled

cgminer kompilieren

make
Testen ob der cgminer  läuft 
Es ist empfehlenswert ihn mit einigen Umgebungsvariablen zu starten. Am besten mit einem Start-Script wie dem folgenden.
#!/bin/bash
export DISPLAY=:0
export GPU_MAX_ALLOC_PERCENT=100
export GPU_USE_SYNC_OBJECTS=1
./cgminer -n
Veröffentlicht unter Computer & Technik, Linux | Verschlagwortet mit , , , , , , , | Hinterlasse einen Kommentar

Pfannkuchen mit Obst und Honig

ObstpfannkuchenZutaten für 2 Portionen

  • 2 Eier
  • 2 gehäufte EL Mehl (50 g)
  • 1 Prise Salz
  • 1 EL Zucker
  • 50 ml kalte Milch
  • 2 EL Honig und frisches Obst
  • 3 EL Öl zum ausbacken der Pfannkuchen

Zubereitung
Aus Eiern, Mehl, Salz, Zucker und Milch einen Pfannkuchenteig anrühren. Etwa 15 Minuten zum Ausquellen des Mehls stehen lassen.

Anschließend etwas Öl in einer beschichteten Pfanne erhitzen, nacheinander aus dem Teig 4 dünne Pfannkuchen backen. Zugedeckt auf einem Teller warm halten.

Obst waschen, in Stücke schneiden und zu den Pfannkuchen legen. Zum Schluss den Honig auf den Pfannkuchen verteilen und das ganze servieren.

Veröffentlicht unter Essen & Trinken | Verschlagwortet mit , , | Hinterlasse einen Kommentar

Galloway Rumpsteak vom Bauern

Galloway Steak Da wir aus ökologischen Gründen große Fans von regionalen, frischen Lebensmitteln sind, versuchen wir auch das Fleisch möglichst in der Region und direkt beim Bauern zu kaufen. Auf dem Gut Trenthorst in der Nähe vom Preetz wurden gerade wieder Galloway Rinder geschlachtet. Dies wird dort vier mal im Jahr gemacht und ist die Gelegenheit um unsere Kühltruhe wieder mit Rindfleisch aufzufüllen und gleich mal ein kleines Rumpsteak zu essen. Allen aus der Region, die gerne Rindfleisch essen kann ich Gut Trenthorst nur empfehlen. Lecker!

Zutaten für 2 Portionen

  • Zwei 250g Rumpsteaks
  • Zwei große Kartoffeln
  • Eingelegt saure Gurken
  • Kräuterquark

Zubereitung
Kartoffeln kochen bis sie gar sind. Die Steaks kurz kalt abwaschen, abtrocknen, den Fettrand in geringen Abständen bis zum Fleisch einschneiden. Das Fett in einer Pfanne erhitzen und die Steaks hineinlegen. Öfter wenden, wobei jede Seite etwa 3 Minuten braten sollte – je nach gewünschtem Zustand. Danach die Steaks in Alufolie einwickeln und noch 15 Minuten im auf 50 Grand vorgeheiztem Backofen ruhen lassen. Danach die Steaks mit den Kartoffeln, dem Kräuterquark und den sauren Gurken servieren.

Veröffentlicht unter Essen & Trinken | Verschlagwortet mit , , , , , , | Hinterlasse einen Kommentar

SPAM-E-Mails aus der Postfix-Queue löschen

Heute wurden mit einem geklauten Benutzerzugang über einen unserer Server innerhalb weniger Minuten ca. 10.000 SPAM-E-Mails verschickt. Ich habe den betroffenen Zugang natürlich sofort gesperrt, nachdem durch die Hohe Anzahl von E-Mails der Alarm ausgelöst wurde. Aber was macht man jetzt mit den ganzen E-Mails in der Queue von Postfix?

Durch eine Analyse der E-Mail-Adressen der Empfänger in der Ausgabe des Befehls mailq zeigte sich, dass die E-Mail-Adressen eine bestimmte Systematik hatten. Die meisten enthielten das word admin. Durch die Kombination von ein paar Unix-Befehlen konnte ich deshalb die meisten SPAM-E-Mails löschen, bevor sie versendet wurden. Hier der Befehl, welchen ich dazu verwendet habe:

mailq | awk 'BEGIN { RS = "" } / admin@.*$/ { print $1 }' | tr -d '*!' | postsuper -d -
Veröffentlicht unter Computer & Technik, Kommunikationstechnik, Linux | Verschlagwortet mit , , , , | Hinterlasse einen Kommentar