Meinen habe ich Ende November bekommen und so schön, groß, er auch ist, ein elementares Ding hat einfach nicht zuverlässig funktioniert. Das Umblättern, und wenn das keine elementare Funktion eines Lesegerätes ist, dann weiß ich auch nicht.
Manchmal hat ein Tippen oder Wischen gar kein Ergebnis zustande gebracht und manchmal ist er gleich zur übernächsten Seite gegangen. Absolut frustrierend und eine Frechheit!
Anfang März kam dann die Version 11.2 heraus, die wohl, Berichten zufolge, dieses Problem für den Epos auch behoben hat, aber mit einigen Vision Probleme verursacht hatte. Und was macht Tolino? Zieht das ganze Update für alle Geräte wieder zurück. Keine Chance als Epos Anwender daran zu kommen.
Aber dann heute, gibt es tatsächlich eine neue Version 11.2.2 und die scheint, ersten Versuchen zufolge, das Problem endlich behoben zu haben.
]]>Und bei Befehlen wie diesem hier:
outp = urlopen('https://irgendwas.com/pfad')
kam der Fehler:
urllib.error.URLError: <urlopen error [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:777)>
Abhilfe hat das ausführen des mitgeliferten Komandos:
/Applications/Python 3.6/Install Certificates.command
geschafft.
]]>Eine Abhilfe besteht darin statt dessen die Coherent PDF Command Line Tools zu verwenden. Einfach herunterladen und die cpdf Datei z.B. unter /usr/local/bin
speichern.
Dann die Zeile
/usr/local/bin/pdftk "$1" update_info ~/bin/lib/SnapScanPDFInfo.txt output "$tmpfile" 2> /dev/null
ersetzen durch
/usr/local/bin/cpdf -set-creator "ScanSnap Manager #S1100" "$1" -o "$tmpfile"
Und schon geht es auch auf dem neuesten MacOSX wieder und die Datei ~/bin/lib/SnapScanPDFInfo.txt
kann man sich dann auch sparen.
Erst SVN, da altbekannt und von BBEdit unterstützt, und dann nach langem hin und her zwischen Mercurial und GIT zu ersterem gewechselt, da es mir einfach intuitiver vorkam. Tut es immer noch, im Vergleich zu git, aber dann kommt BBEdit in Version 11.1 mit eingebauter git-Unterstützung. So gut ich auch mit SourceTree zurechtgekommen bin, so praktisch finde ich doch, wenn alles im Editor der Wahl untergebracht ist, zumindest das was man täglich so braucht.
Heute habe ich ein Projekt mittels fast-export und dieser Anleitung konvertiert, und auf den ersten Blick sieht es durchaus so aus, als ob das auch geklappt hat.
Jetzt muß ich mich aber erstmal wieder mit der Philosophie von git vertraut machen, da ich aber nicht wirklich sooo viele Features nutze, sollte sich der Aufwand in Grenzen halten. Die BBEdit-Integration scheint auf jeden Fall zu halten was sie verspricht, jetzt muß ich mir nur noch ein paar Tastaturkürzel dafür überlegen.
]]>Warum? Vermutlich einfach aus Neugierde auf Neues. Subversion hat mir immer treue Dienste geleistet und hat für das, was ich so damit mache, immer ausgereicht (das war bei mir aber auch bei RCS und CVS nicht anders). Trotzdem habe ich mir mal ein paar neue Sachen angeschaut. Bazaar hat mich gleich abgeschreckt, insbesondere der mitgelieferte Explorer und die dauernden Fehler die ich mir auf die Schnelle nicht erklären konnte. Git ist sicher nicht das Dümmste, aber auch da bin ich in Laufe meiner Tests auf Verhalten gestoßen die ich mir intuitiv nicht erklären konnte; aber immerhin haben mich meine git-Experimente auf die Spur von SourceTree gebracht, was mich wiederum in Richtung Mercurial gestoßen hat. Das zusammen mit hgflow und SourceTree konnte mich wirklich überzeugen. Alle läuft so wie ich es mir vorstelle.
Meine alten Sachen habe ich aber nicht konvertiert, sondern habe mir einfach die relevantesten Stände ausgecheckt und der Reihe nach in Mercurial wieder commit-ed.
Mit dem Umstieg auf BBEdit bin ich aber trotzdem noch sehr zufrieden. Mit Projekten, Clippings und der integrierten Vorschau bietet er doch einiges mehr als TextWrangler und für mich auch mehr Relevantes als seinerzeit Textmate. Nach vielen, vielen Jahren fühle ich jetzt wieder die Editor-Macht wie früher beim XEmacs, den ich seinerzeit beim Umstieg von Linux auf dem Mac aus irgendwelchen Gründen1 zurück gelassen habe. Nur dem Gnus weine ich als Newsreader und Mailclient noch immer hinterher.
Ok, der Grund war, daß sich meine .emacs
nicht ohne weiteres hat übernehmen lassen und Textmate seinerzeit ein akzeptabler Nachfolger war, so daß ich das nicht weiter verfolgt habe. ↩
Gereizt daran hat mich hauptsächlich die Unterstützung von Subversion und die Textclippings. Mit den Clippings habe ich noch keine weiteren Erfahrungen gesammelt, aber die Integration einer Versionsverwaltung ist schon was wert. Dank der engen Verwandschaft zwischen TextWrangler und BBEdit war der Umstieg eine Sache von Minuten. Meine Text-Filter und meine bevorzugten Farbeinstellungen konnte ich einfach kopieren, das Verhalten ist im Wesentlichen identisch und ich musste nur ein paar Einstellungen nachziehen und ein paar Tastaturkürzel neu definieren.
Ein kurzer Zwischentest mit Sublime Text hat mich nicht vom Hocker gehaut, auch wenn die automatische Hervorhebung beim Suchen (und Ersetzen, auch von Regular Expression) da eine feine Sache ist.
]]>Da ich aber Path Finder statt des Finders einsetze helfen die zahlreichen Beispiele für solcherlei Sachen nicht viel weiter.
Eine Variante um das Ganze zu umgehen, ist es vor den Aktionen die die Auswahl des Finders durchnudeln, eine Aktion einzubauen die aus PathFinder heraus “Ablage > Im Finder anzeigen” aufruft. Dabei gerät man allerdings in Bekanntschaft mit Timingproblemen und ruft extra ein Programm aus, mit dem man eigentlich ansonsten nicht zu tun hat.
Als Abhilfe können hier ein paar Zeilen AppleScript dienen die dieselbe Funktionalität bereitstellen.
Bei mir liegt ImageOptim unter /Applications/Utils
, der Pfad ist also ggf. anzupassen falls es woanders liegt.
Zudem hat mich am Textexpander gestört, daß es mir in einer virtuellen Maschine, sei es Parallels oder Fusion nichts gebracht hat. Wohingegen ich Kürzel die ich in Keyboard Maestro mit z.B. “Insert text by typing” vereinbart habe durchaus funktionieren.
So kann ich ein Kürzel, das ich durchaus mehr als nur 10x am Tag benutze, welches mir das aktuelle Datum im ISO-Format einfügt, auch in einer virtuellen Maschine einfach durch Eingabe von +ds
aufrufen:
Zwar hat es eine etwas längere Lernkurve (nur minimal) aber man kann, ebenso wie in Textexpander, auch anspruchsvollere Sachen inkl. Benutzerinteraktion damit erstellen:
Die obige Aktion erfragt einen Titel und einen Kategorie aus einer Auswahl und fügt mir die entsprechenden Eingaben dann in meine Vorlage für den Kopf eines Statamic Beitrages ein.
Was mir nicht so gut gefällt, ist, daß man wohl die Clipboard Historie nicht ganz ausschalten kann (nur das auf Festplatte speichern), aber da mir, zumindest bis jetzt, noch keine ähnlich negativen Sachen aufgefallen sind wie seinerzeit als ich die Historie in Launchbar aktiviert hatte, nämlich sehr behäbiges Einfügen von großen Bilddaten, hat sie ja auch etwas praktisches, zumal Sachen die wie ein Passwort aussehen zum einen in der Anzeige der Historie ausge-x-t werden und zum anderen wenn sie an der 10. Position angekommen sind, gelöscht werden.
Neben Textexpander hat mir Keyboard Maestro auch jegliche Tools zum gezielten Platzieren von Fenstern ersetzt:
(s.a. iEnno: Fenster organisieren mit Keyboard Maestro)
Mein Arsenal an unverzichtbarem besteht also zur Zeit aus Launchbar, Hazel, Keyboard Maestro und 1Password.
Nachtrag: Man kann die Anzahl der gespeicherten Clipboards via Kommandozeile beinflussen:
defaults write com.stairways.keyboardmaestro.engine MaxClipboardHistory -int 12
defaults write com.stairways.keyboardmaestro.engine MaxConcealedPosition -int 3
So werden nur noch 12 Zwischenablagen aufbewahrt und Sachen die wie Passwörter aussehen bereits ab Position 4 gelöscht.
]]>Warum das geklappt hat ist die gute s/w-Bildverarbeitung des Scanners und der beiliegenden Software, das einfachere Handling des Einzugsscanners im Vergleich zu einem Flachbettscanner, meine Hazel-Workflows und das integrierte Abbyy OCR Modul.
Und um letzteres soll es hier gehen.
Die Abbyy Software arbeitet sehr gut beim Hinterlegen der gescannten Grafikdaten mit, per OCR gewonnener, Textinformationen. Dies funktioniert standardmäßig aber nur mit PDFs die auch vom ScanSnap generiert wurden und eben nicht mit beliebigen PDF; seien es Altdaten oder Scans die vom iPhone kommen. Das hier beschriebene Verfahren mit tesseract eignet sich gut um ASCII-Dateien aus den Scans zu generieren, aber weniger dafür die PDFs mit — durchsuchbarem — Text zu ergänzen.
Was liegt also näher als zu versuchen die vorhandene — Fujitsu gebundelte — Software von Abbyy auch auf diese Dateien loszulassen.
Eine Analyse der vom ScanSnap erzeugten Dateien hat ans Tageslicht gebracht, daß diese im Feld Creator
ScanSnap Manager #S1100
und im Feld Producer
Mac OS X 10.8.4 Quartz PDFContext
stehen haben. Nur wie bekommt man das jetzt am geschicktesten in die Dateien hinein?
Erfreulicherweise gibt es pdftk, welches sich über die MacPorts auch bequem auf dem Mac installieren lässt.
Fehlt also nur noch ein Skript das einem die Hauptarbeit abnimmt.
pdfocr.sh:
#!/bin/bash
## testen ob Parameter 1 als Datei exitsiert
if [ ! -f "$1" ]
then
echo "$1: File does not exist"; exit 1
fi
base=$(basename -s .pdf "$1")
## TMP-Verzeichnis anlegen und darin Datei definieren
tmpdir=$(mktemp -d -t pdfocr)
if [ $? -ne 0 ]; then
echo "$0: Can't create temp dir, exiting..."; exit 1
fi
tmpfile="${tmpdir}/${base}.pdf"
/usr/local/bin/pdftk "$1" update_info ~/bin/lib/SnapScanPDFInfo.txt output "$tmpfile" 2> /dev/null
open -a 'Scan to Searchable PDF.app' "$tmpfile"
~/bin/lib/SnapScanPDFInfo.txt:
InfoKey: Creator
InfoValue: ScanSnap Manager #S1100
InfoKey: Producer
InfoValue: Mac OS X 10.8.4 Quartz PDFContext
2015-11-28: Unter Mac OS 10.11 (El Capitan) scheitert die Sache an einem renitenten pdftk; eine Abhilfe habe ich hier beschrieben.
]]>Kamera: Pentax K-5
Objektiv: Pentax Pentax SMC-DA 35mm
ISO: 100
Blende: 19
Belichtungszeit:1/500s -- 1/2s (HDR aus 5 Bildern)
]]>Per ctrl-cmd-space
erscheint in entsprechenden Texteingabebereichen beim Cursor ein kleines Hilfsfenster zur Eingabe von Sonderzeichen, Smilies, etc.
Komplett mit verschiedenen Kategorien und einer Historie.
]]>Nutz man die Laufwerke nur manuell ist es einfach ein Ärgernis und man muß sie einfach neu verbinden, bei automatisch ablaufenden Skripten aber ist es extrem ungünstig wenn die plötzlich nur Leere vorfinden wo sie einen Ordner auf dem NAS erwarten.
Umgehen kann man das Ganze indem man den automount
-Mechanismus benutzt den es seit einiger Zeit in OS X gibt.
Als erstes legt man, z.B. pro Server oder Netzwerk, einen Ordner unter /Volumes
an:
mkdir /Volumes/NAS
(NAS
dient nur als Beispiel, der Ordner kann natürlich heißen wie er will, solange er nicht mit bereits unter /Volumes
eingebundenem kollidiert.)
Dann fügt man in die Datei /etc/auto_master
eine neue Zeile für diesen Ordner ein:
/Volumes/NAS auto_NAS
Und legt eine neue Datei /etc/auto_NAS
an in die man nun die zur verbindenden ‘Shares’ mitsamt Anmeldeinformationen eingibt.
home -fstype=smbfs ://USER:PASSWORD@NAS/home
Sync -fstype=smbfs ://USER:PASSWORD@NAS/Sync
Zu beachten ist dabei, daß in den Dateien jeweils ein LineFeed nach der letzten Zeile sein muß!
Damit das alles auch greift fehlt jetzt nur noch ein:
sudo automount -vc
Für manches mag das Verfahren den Nachteil haben, daß die Laufwerke jetzt nicht mehr, wie händisch eingebundene, in der Seitenleiste des Finders erscheinen, aber man kann sich entweder die Wurzel /Volumes/NAS
manuell da hineinlegen oder sich mit Aliases oder Symlinks an geeigneter Stelle behelfen.
Aber der Reihe nach:
Als erstes benötigt man natürlich tesseract. Am Mac lässt sich das am einfachsten über die MacPorts installieren. Sind diese erstmal installiert, dann genügt ein einfaches sudo port selfupdate
und sudo port install tesseract
um dieses auf die Platte zu befördern, was aber je nach Anzahl der noch fehlenden Pakete eine Zeit lang dauern kann.
Danach sollte man sich noch die benötigten Sprachdateien herunterladen. Die für deutsch tragen ein .deu.
im Namen, die für englisch .eng.
. Die darin enthaltenen .traineddata
-Dateien kommen nach /usr/local/share/tessdata
.
Um das PDF zur Wandlung in eine Grafikdatei zu wandeln setzt mein Skript auf das in ImageMagick enthaltene Tool convert
. Was sich wieder einfach via MacPorts installieren lässt.
pdf2orc.sh:
#!/bin/bash
## testen ob Parameter 1 als Datei existiert
if [ ! -f "$1" ]
then
echo "$1: File does not exist"; exit 1
fi
base=$(basename -s .pdf "$1")
## TMP-Verzeichnis anlegen und darin Datei definieren
tmpdir=$(mktemp -d -t pdf2ocr)
if [ $? -ne 0 ]; then
echo "$0: Can't create temp dir, exiting..."; exit 1
fi
tmpfile="${tmpdir}/pdf2ocr.png"
## PDF in an langes PNG wandeln
/usr/local/bin/convert -depth 4 -density 300 "${1}" miff:- | convert - -append "${tmpfile}"
## deu ist Standardsprache gibt es mehr als einen Parameter bestimmt der 2. die Sprache
lang="deu"
if [ $# -gt 1 ]; then
lang=$2
fi
echo "Using Language: $lang"
## OCR in basename + txt des aktuellen Verzeichnisses
/usr/local/bin/tesseract "${tmpfile}" "${base}" -l $lang
# aufräumen
rm "${tmpfile}"
Das Skript nimmt als ersten Parameter die PDF-Datei entgegen und wandelt diese, solange man nichts anderes mit angibt, mit der deutschen Sprachvorgabe in eine Textdatei die anschließend parallel zur Eingabedatei mit dem selben Namen aber der Endung .txt
liegt. Möchte man z.B. eine englische Texterkennung muß man dies dem Skript als zweiten Parameter mitgeben.
pdf2ocr.sh Scans/Eingabedatei.pdf eng
Das Skript wandelt die Eingabedatei erstmal in eine, mitunter laaaange, PNG-Datei um, nimmt im Beispiel statt der (standardmäßigen) deutschen, die englische Sprache, und lässt tesseract
auf die Grafik los. Anschließend hat man in Scans/Eingabedatei.txt
das Ergebnis liegen.
So wird z.B. aus diesem, leicht schiefen, Scan, dieser Text:
den Rand hinausragt.
6. Bringen Sie das Paket zur Post (DHL). Das Frankieren der Sendung ist mit dem
vorfrankierten Rücksendeetikett nicht erforderlich. Wenn Sie das vorfrankierte
Rücksendeetikett nicht nutzen: Bei einem Wert der zurückzusendenden Sache ab 40 EUR
Damit kann man leben :-).
]]>Nachdem ich ja so meine Probleme mit den Noodler’s “bulletproof” Tinten habe, die Lamy Blau-Schwarz im Fass jetzt scheinbar keine Eisengallustinte mehr ist und auch mein Restbestand einen recht mageren Tintenfluss im Lamy 2000 gezeigt hat, war es Zeit etwas Neues zu suchen. Und gleich der erste Versuch war ein Volltreffer.
Die Midnight Blue hat einen sehr guten Tintenfluss, ist deutlich dunkler als die (Eisengallus-) Lamy Tinte und scheint trotzdem deren positive Eigenschaften zu teilen. Sie verwischt nicht und ist wasserbeständig. Der einzige Nachteil den ich bis jetzt gefunden habe ist der Preis: 13EUR/60ml. Das ist nicht direkt günstig aber auch nicht außergewöhnlich viel zumal sie in einem recht hübschen und praktischen Gefäß daherkommt.
Hier gibt es einen deutschsprachigen Testbericht dazu.
Zur Lichtbeständigkeit kann ich momentan noch nichts sagen, aber das wird sich zeigen.
[Nachtrag 2014-04-30] Leider scheint die aktuelle Variante auch keine Eisengallustinte mehr zu sein (“Non Perma”). Sehr schade.
]]>Ein Plan von mir war, gewisse Ordner des NAS regelmäßig per duply auf mein Telekom Mediacenter WebDAV zu sichern. Duply ist ein einfaches Skript und duplicity auf dem es aufbaut ist in Python geschrieben für das es ein fertiges Paket von Synology gibt.
Leider musste ich aber feststellen, daß alle Beschreibungen im Internet über das Installieren von z.B. duplicity für mein System ins Leere greifen; das ganze ipkg-Zeugs und die Pakete dazu gibt es einfach nicht für die ARMv7 Marvell-370 Plattform der DS213j.
Ein Versuch das alles aus den archlinux|ARM-Paketen nachzurüsten scheiterte an einer inkompatiblen glibc-Version. Also habe ich mich mal über das CrossCompiling für die Diskstation schlau gemacht.
Erstmal eine virtuelle Ubuntu-Maschine installiert (bei mir als 12.4-er Download direkt von Parallels aus) und gemäß dieser Anleitung die richtige “Tool Chain” heruntergeladen (für meine DS213j mit DSM4.2 war das gcc464_glibc215_hard_armada370-GPL.tgz
) und nach /usr/local
ausgepackt. Da die von Parallels bereitgestellte Maschine aber 64-bitig ist und die Programme der “Tool Chain” in 32-bit vorliegen braucht es noch etwas Nacharbeit um diese auch lauffähig zu machen: sudo apt-get install ia32-libs
duplicity benötigt librsync
, also besorgen wir uns diese mal und entpacken es in einem temporären Ordner in der Linux-Machine (Synology
bei mir im Homeverzeichnis). Zum Cross-Kompilieren braucht es ein paar Umgebungsvariablen, die sicherstellen, daß mit den richtigen Tools für das richtige Ziel übersetze wird. Dazu habe ich mir zwei Dateien im Synology
-Ordner angelegt
synconf.sh:
env PATH=$PATH:/usr/local/arm-marvell-linux-gnueabi/bin CC=/usr/local/arm-marvell-linux-gnueabi/bin/ CC=/usr/local/arm-marvell-linux-gnueabi/bin/arm-marvell-linux-gnueabi-gcc \
LD=/usr/local/arm-marvell-linux-gnueabi/bin/arm-marvell-linux-gnueabi-ld \
RANLIB=/usr/local/arm-marvell-linux-gnueabi/bin/arm-marvell-linux-gnueabi-ranlib \
CFLAGS=" -I/usr/local/arm-marvell-linux-gnueabi/arm-marvell-linux-gnueabi/libc/include -mhard-float -mfpu=vfpv3-d16" \
LDFLAGS=" -L/usr/local/arm-marvell-linux-gnueabi/arm-marvell-linux-gnueabi/libc/lib" \
./configure --host=arm-marvell-linux-gnueabi --target=arm-marvell-linux-gnueabi --build=i686-pc-linux --prefix=/opt
synmake.sh:
env PATH=$PATH:/usr/local/arm-marvell-linux-gnueabi/bin make
Um sie jeweils an die entsprechende Pakete noch anzupassen kopiere ich mir diese in die entsprechenden Ordner. Um z.B. die librsync
nicht nur als statische Bibliothek sondern auch als dynamische zu bauen braucht es für ./configure
noch die Option --enable-shared
. Das configure
-Skript wird dann aus dem entsprechenden Unterordner heraus per . synconf.sh
aufgerufen und make
per . synmake.sh
.
Beim Übersetzen der librsync
hat es gleich mal einen Fehler gegeben. errno.h
wurde im Ordner /usr/local/arm-marvell-linux-gnueabi/arm-marvell-linux-gnueabi/libc/include/asm
vermutet, lag da aber nicht. Also in den Ordner gewechselt und die aus asm-generic
da hinein verlinkt (sudo ln -s ../asm-generic/errno.h .
). Eine dynamische Bibliothek habe ich trotzdem nicht zustande gebracht ./.libs/librsync.so: undefined reference to 'RollsumUpdate'
. Also neuer Versuch mit der 0.9.6-er Version statt der 0.9.7-er; mit der hat es dann geklappt.
Weiter sollte es mit GnuPG 2.0 gehen. synconf.sh
lief auch durch, hat aber auf soviele fehlende Pakete aufmerksam gemacht, daß ich es dann aufgegeben habe. Denn eigentlich habe ich mich ja für die Synology entscheiden weil ich etwas wollte an dem man nicht herumbasteln muß, sonst hätte es ein Rasberry sicher auch getan.
Jetzt sichere ich die Daten erstmal vom Mac aus und werde mir bei Gelegenheit mal die verschlüsselten Ordner und die integrierten Backuptools ansehen.
Alles was die Synology von Haus aus so anbietet und was ich davon nutze funktioniert übrigens einwandfrei und ist leicht zu konfigurieren, wenn man jedoch zusätzliche Software nutzen will sollte man entweder zu einem System mit verbreiteterer CPU greifen, abwarten bis sich ARMv7 durchsetzt oder sich auf einiges an Bastelei einstellen.
]]>Bilder die ich veröffentlichen will landen im Bilderordner und hinter dem hängt ein Hazel Arbeitsablauf der wiederum ein Automatoraktion aufruft.
Name: Bild-Sync
if all of the following conditions are met
Date Last modified is after Date last Matched
Name does not match <Thumbnail>
Kind is Image
Do the following to the matched file or folder:
Run shell script embedded script
Run Automator Workflow Bild-Sync.workflow
Mit dem zweiten Kriterium vermeide ich, daß die Synchronisierung (die ja nicht nur eine einzelne Datei sondern den gesamten Ordner hochlädt) bei einem Bild-Thumbnail-Paar zweimal angestossen wird.
Hinter dem Shell-Skript steckt einfach ein sleep 2
damit auf jeden Fall auch das Thumbnail schon bereit steht bevor die Synchronisierung beginnt.
So sieht die Automator-Aktion für die Ordnersynchronisierung mit Transmit (mittlerweile Version 4) aus:
BildSync.workflow (Arbeitsablauf)
Snchronize
Verbinden mit: Favorit
Favorit: blindschleiche.de
Synchr.-Richtung: Hochladen
Vergleichen: Änderungsdatum
Dateien überspr.: Browse.plb
Lokaler Pfad: Bilder
Optionen: [x] Verweiste Objekte am Ziel löschen
Entfernter Pfad: /assets/img
Hinter dem Texte-Ordner steht, im Wesentlichen, dieselbe Aktion.
Für Fotos die ich aus Aperture veröffentliche habe ich dort einen speziellen Namen, als Format PNG und einen speziellen Pfad als Ausgabe hinterlegt. Landet nun so ein Bild in diesem Ordner ruft Hazel zwei verschiedene Aktionen auf. Die erste lässt mein Skript darüber laufen (welches mir schon seit 7 Jahren treue Dienste leistet (erst unter Linux und jetzt unter MacOS)) das die Eingabedatei verkleinert, einen Rahmen darum zieht und ein Wasserzeichen einfügt, ein Thumbnail dazu erzeugt (mit anderem Rahmen) und die Eingabedatei löscht. Im Anschluss steht in meinem Vorbereitungsordner ein Bildpaar:
2013-07-06_2013042_tn.jpg
2013-07-06_2013042.jpg
Und auf dieses stürzt sich dann die zweite Hazel-Aktion die diese in meinen Bilderordner auf Dropbox verschiebt von wo aus sie dann die oben beschriebene Aktion auf den Webserver hochlädt.
Um mir die Sache noch einfacher zu machen kopiert mir bereits mein watermark-Skrit den späteren Pfad als Markdown-Code in die Zwischenablage den ich dann nur noch einzufügen brauche.
echo "[](${imgpath}/${fullsize})" | pbcopy
Jetzt muss ich nur noch den Text hier in meinem Texteordner abspeichern und schon steht die ganze Choose im Netz :-). Fällt mir dann hinterher nochwas ein, editiere ich das einfach lokal und schwups wird auch der Inhalt in Web aktualisiert. Und letzteres ist der Grund warum ich bei Hazel gelandet bin und nicht bei den eingebauten Ordneraktionen geblieben bin (s.a. Beiträge in Stamatic erfassen).
]]>Als Test meines neuen Workflows zum Bilderveröffentlichen nochmal ein anderes Lanschaftsfoto mit dem iPhone 4S. Wie man an den Grüntönen erkennen kann natürlich üppig aufgebrezelt.
]]>Weil’s mit Statamic jetzt gar so einfach geht, gleich noch ein Bild.
Kamera: Pentax K-5
Objektiv: Tamron 28-75mm/f2.8@33mm
ISO: 80
Blende: 8
Belichtungszeit:1/500s
]]>Zum Worflow (des Veröffentlichens von Texten und Bildern auf Statamic, nicht zu dem der Bildbearbeitung) später vermutlich mehr, aber weil es gar so leicht von der Hand geht, gleich noch ein Foto.
Kamera: Nikon V1
Objektiv: Nikkor 18,5mm/f1.8
ISO: 100
Blende: 3,2
Belichtungszeit:1/640s
Bearbeitet in Aperture und SilverEfex.
]]>Kein Löschen, kein Verschieben, nichts.
Zum reinen Erfassen funzt es aber ganz gut und zuverlässig; für den Rest werde ich wohl auf DevonThink ToGo 2 warten müssen, für das ein verschlüsselter Cloud-Sync auch nicht das blödeste wäre.
]]>