Zum Inhalt

2025

Bambu Lab P2S 3D-Drucker: Ausführlicher Vergleich mit P1S und X1C – Technik, Workflow und Filamentvielfalt 2025

Vom P1S zum P2S: Näher an den Bambu Lab Top-Modellen

Als Nachfolger des populären P1S bringt der P2S vor allem Neuerungen im Materialhandling und in der Prozesssicherheit mit. Für Nutzer bedeutet das: noch weniger manuelle Einstellungen, dafür mehr Stabilität und zuverlässigere Druckergebnisse. Natürlich ist das Basteln am 3D-Drucker interessant und man lernt viel dabei. Wer aber einfach nur zuverlässig drucken möchte, findet mit den Bambu Lab Druckern genau die richtigen Geräte. Kein Kalibrieren, kein Probieren, kein Bed-Leveling etc. Der Druck lässt sich mit der Kamera auf dem Smartphone beobachten. Wenn das Filament ausgeht, wird einfach nachgeladen und weitergedruckt etc.

Gerade die Combo mit den 4 Filamenten und automatischem Filamentwechsel ist interessanter, als mancher denken mag. Ich sehe hier die Hauptanwendung nicht in unterschiedlichen Farben (was ich nur sporadisch benötigen würde), sondern vielmehr in der Kombination unterschiedlicher Materialien in einem Druck. So kann man ein spezielles Support-Filament drucken, das sich leicht entfernen lässt, oder PETG mit TPU kombinieren, um flexible Teile mit starren Komponenten zu verbinden. Allein dass man seine Hauptfilamente nicht erst einlegen muss, ist ein großer Komfortgewinn.

Das Herzstück ist der neue PMSM-Servomotor mit bis zu 8,5 Kilogramm Schubkraft. Die Extrusion wird dadurch gleichmäßiger und schneller, was hauptsächlich bei komplexen und detailreichen Drucken ins Gewicht fällt. Ergänzt wird dies durch eine automatische Flow-Kalibrierung, die anhand eines Wirbelstromsensors in Echtzeit den Materialfluss anpasst und so eine konstante Druckqualität sicherstellt.

Die neue 1080p-Kamera kombiniert mit KI-basierter Fehlererkennung kann viele gängige Fehlermuster (z. B. „Spaghetti“, Luftblasen, Verstopfungen) automatisch erkennen und den Druck frühzeitig anhalten. Für den Anwender bedeutet das weniger Fehldrucke und höheren Komfort.

Mit dem neuen Quick-Swap-Hotend wird der Düsenwechsel ohne Werkzeug möglich, was Wartungsarbeiten vereinfacht. Auch das adaptive Airflow-System passt die Kühlung dynamisch an das jeweils verwendete Filament an – ein wichtiger Faktor bei vielseitiger Materialnutzung.

Die Bedienung des P2S erfolgt über ein modernes 5-Zoll-Touchdisplay mit einer benutzerfreundlichen Oberfläche, deren Design gegenüber dem P1S erheblich verbessert wurde. In Kombination mit dem AMS 2 Pro-System für Multi-Filament-Druck und aktive Filament-Trocknung entsteht ein Workflow, der Plug-and-Play-Prinzipien sehr nahekommt.


Bambu Lab P2S vs. P1S vs. X1C: Technik und Anwendung im Vergleich

Bisher unterschied sich die Mittelklasse-Serie (P1S) technisch stärker von der Oberklasse (X1C), die mit zusätzlichen Profi-Features wie Micro-LiDAR zur Qualitätssicherung arbeitet. Mit dem P2S schrumpft diese Kluft:

  • Bauraum: Bei allen Modellen 256 × 256 × 256 mm – ein Standardmaß, das für eine breite Palette von Anwendungen ausreichend ist.
  • Extruder: Vom Stepper beim P1S über den leistungsfähigen PMSM-Servo im P2S bis zum High-End-Servo mit LiDAR-Qualitätssicherung im X1C.
  • Fehlererkennung: Basis-Kamera beim P1S, 1080p-KI-Kamera im P2S, Micro-LiDAR plus Kamera im X1C.
  • Bedienung: Tastenfeld und Basic-UI beim P1S, 5″ Touchscreen mit neuer UI-Generation beim P2S und X1C.
  • AMS-System: Klassisches AMS beim P1S, weiterentwickeltes AMS 2 Pro mit aktiver Trocknung bei P2S und X1C.
  • Geschwindigkeit: Bis zu 500 mm/s Beschleunigung beim P2S, ähnlich gute Werte bei X1C, P1S etwas langsamer.
  • Preis: Ab 539 € (P1S Combo), 749 € (P2S Combo) bis 999 € (X1C Combo).

Warum ein Filament-Trockner sehr sinnvoll ist

Der Bambu Lab P2S Combo kommt mit einem integrierten Filament-Trocknungssystem. Warum das eine sehr gute Sache ist und was hier wissenschaftlich dahintersteht, hat meine Kollegin, Dr. Natalie Rudolph, vor einiger Zeit ausführlich erklärt:


Materialvielfalt: Von Standard- zu faserverstärkten Filamenten

Eine der wichtigsten Weiterentwicklungen des P2S ist die erweiterte Kompatibilität mit abrasiven und faserverstärkten Filamenten. Während der P1S eher für Standardfilamente wie PLA, ABS, PETG, Nylon und Polycarbonat ausgelegt ist, erlaubt die robuste Mechanik und gehärtete Stahldüse des P2S den sicheren Druck mit Kohlenstoff- und Glasfaserverstärkten Materialien (z. B. PA-CF, PETG-CF).

Die X1C-Modelle gehen hier noch einen Schritt weiter und unterstützen durch spezielle Düsen und Temperaturmanagement auch High-End-Fasermaterialien, die vor allem im industriellen Prototyping und in Werkstätten gefragt sind.


Übersicht Vergleichtabelle Combo-Versionen (Oktober 2025)

Merkmal P1S Combo P2S Combo X1C Combo
Bauraum (mm) 256 × 256 × 256 256 × 256 × 256 256 × 256 × 256
Extruder Steppermotor PMSM Servo (8,5 kg Schubkraft) Servo + Micro-LiDAR
Düse Standardstahl Gehärteter Stahl Gehärteter Edelstahl
Fehlererkennung Kamera (Basis) 1080p-KI-Kamera Micro-LiDAR + Kamera
Bedienung Tastenfeld, Basic UI 5″ Touchscreen, neue UI 5″ Touchscreen
AMS-System AMS Classic AMS 2 Pro (aktive Trocknung) AMS 2 Pro
Materialvielfalt PLA, ABS, PETG, Nylon, PC + Kohlenstoff- & Glasfasern Größte Materialauswahl inkl. High-End CF
Max. Temperatur Düsen max. 300°C, Bett 100°C Düsen max. 300°C, Bett 110°C Düsen max. 300°C, Bett 110°C
Druckgeschwindigkeit Hoch (Standard) Bis 500 mm/s, 20.000 mm/s² Hoch (X1-Serie Niveau)
Preis (Combo) Ab 539 € Ab 749 € Ab 999 €

Fazit

Der Bambu Lab P2S bringt technische und funktionale Verbesserungen, die ihn in vielen Bereichen näher an die Oberklasse heranführen. Besonders die verbesserte Extrusion, KI-gestützte Fehlererkennung und erweiterte Materialkompatibilität machen ihn zu einer interessanten Wahl für Nutzer, die hochwertige Drucke mit modernen und auch faserverstärkten Filamenten ohne großen Wartungsaufwand realisieren wollen.

Während der P1S nun deutlich im Preis gesunken ist, bietet der P2S einen Spagat zwischen einfacher Bedienung und professionellen Features. Die X1-Serie behält ihren Platz für Anwender mit höchsten Ansprüchen – für viele dürfte der P2S jedoch die Wahl mit dem perfekten Preisleistungsverhältnis sein.

Mehr Informationen: https://bambulab.com/de-de/p2s

Readeck – die Pocket-Alternative und Read-It-Later-App mit neuer Version

Pocket war eine der Anwendungen, die ich am längsten genutzt habe. Seit 2007 war Pocket praktisch das Synonym für Bookmark-Verwaltung und Read-It-Later Funktionen. 2017 wurde es dann von Mozilla übernommen, wobei es schon seit 2015 eine Standardfunktion von Firefox war.

Im Zuge meines Wechsels zum Self-Hosting (hier ein ausführlicher Beitrag zum Thema und was ich selbst hoste), habe ich mich im letzten Jahr nach Alternativen zu Pocket, Raindrop.io, Instapaper und nicht zuletzt Omnivore umgesehen. Omnivore war eine tolle Read-It-Later-App, die praktisch vom einen auf den anderen Tag ersatzlos eingestampft wurde. Zwar wird auf Github eine Omnivore-Version weiterentwickelt, aber das scheint nur sehr zäh zu gehen und mit ziemlichen Problemen behaftet zu sein.

Ich habe mich damals für Readeck entschieden, nachdem Wallabag und Hoarder bei meinen Tests aus verschiedenen Gründen durchgefallen waren.

Nun ist Readeck in der Version 0.19 erschienen. Diese bringt neue Ansichtsoptionen, die Möglichkeit, Inhalte per Mail zu teilen und den Versand von Inhalten als E-Book im EPUB-Format.

Die Browser-Extension für Readeck kann jetzt auf Wunsch auch nur Bilder in Readeck speichern. Der Import der Inhalte von Pocket in Readeck funktioniert übrigens absolut problemlos.

Readeck bald auch ohne Self-Hosting verfügbar

Nicht jeder kann oder will Anwendungen wie Readeck selbst hosten, auf wenn für solche Anwendungen ein Raspberry Pi vollkommen ausreichend ist. Daher haben die Readeck-Macher angekündigt, dass es noch in diesem Jahr ein Angebot geben soll, mit dem man Readeck auch ohne eigenen Server nutzen können soll – was freilich auf ein Freemium-Modell herauslaufen wird.

Warum überhaupt eine Bookmark-App?

Viele fragen sich, wozu man überhaupt eine solche Anwendung benötigt, wenn man doch jeder Browser Bookmarks verwalten kann?

Pocket, Readeck, Raindrop.io & Co. verwalten nicht nur Bookmarks. Sie speichern den gesamten Inhalt der Seite ab. Das bedeutet auch, dass man den Inhalt konserviert hat, auch wenn die Ursprungsseite nicht mehr vorhanden ist. Zudem lassen sich die so gespeicherten Inhalte per Volltextsuche auffinden und das Tagging der Inhalte (das bei der Browser-Extension bereits beim Speichern möglich ist), bietet sehr viel mehr Komfort als das simple Bookmarking im Browser. Auch lassen sich Passagen in den gespeicherten Seiten markieren und hervorheben, wobei auch nach diesen Anmerkungen gesucht werden kann.

Wenn ich Themen recherchiere oder einfach wieder einmal von einem Thema zum nächsten, zum nächsten und zum übernächsten surfe, speichere ich auf meinem Weg alle interessanten Inhalte ab, um sie später zu lesen. Readeck sagt mir, was ich davon schon gelesen oder zumindest angefangen habe. Damit entsteht eine Wissensdatenbank, die ich schnell durchsuchen kann, wenn etwa das selbe Problem wieder einmal auftaucht.

Ich bin auch kein Fan davon, Bookmarks in einer PKM- oder Notiz-App wie Joplin oder Obsidian zu speichern. Bei Bedarf kann ich direkt zu einer Seite in Readeck verlinken. Für Obsidian gibt es natürlich ein Readeck-Plugin. Wofür gibt es in Obsidian eigentlich kein Plugin? Und das halte ich auch für das größte Problem von Obsidian.

In Readeck speichere ich die “passiven” Themen, also das, was ich immer wieder einmal benötige, ohne dass ich mich damit intensiver auseinandersetzen muss oder möchte. Wäre das der Fall, würde ich das in Joplin machen und auf die Inhalte in Readeck verweisen bzw. mir diese in Joplin kopieren.

Tipp: Bookmarks effizient verwalten

Irgendwann sind auch Inhalte in Readeck verwaltet. Wie behält man solche Bookmarks in einer Read-It-Later-App im Auge? Ich habe mir ein einfaches System geschaffen, mit dem ich Bookmarks ganz einfach nach Alter überprüfen kann. Dazu nutze ich eine Handvoll Tags:

keep-3m, keep-1y, keep-5y, keep

Jeder Inhalt bekommt beim Speichern nicht nur ein oder mehrere Kategorien per Tag zugeordnet, sondern auch eine Art “Mindesthaltbarkeitsdatum”. keep-3m bedeutet: Das Bookmark wird auf jeden Fall 3 Monate lang aufgehoben. keep-5y bedeutet 5 Jahre lang. Das einfache keep bedeutet, dass es immer verfügbar bleiben soll.

In Readeck kann man dann einfach eine “Sammlung” anlegen, in der die entsprechenden Tags enthalten sind. Ab und zu öffne ich dann z. B. die keep-1y Sammlung und sehe nach, was davon noch wichtig ist und was gelöscht werden kann. Datenhygiene ist ja auch nicht unwichtig – ich bin kein Sammler.

Hier geht es zu Readeck: https://readeck.org/en/

Self-Hosting-Trend: Warum immer mehr Menschen ihre Daten zurückerobern

Die Kombination aus Datenskandalen, Kostenexplosionen bei Cloud-Diensten und dem Wunsch nach digitaler Souveränität treiben den Trend zum Self-Hosting oder Home-Lab an. Dank Projekten wie Nextcloud, Home Assistant, Open Media Vault, Proxmox oder TrueNAS ist Selbsthosting heute auch für Laien machbar. Kein Wunder, dass der Heimserver zum neuen DIY-Projekt avanciert. Dabei helfen Dienste wie Docker dabei, eine selbst-gehostete Anwendung schnell und vergleichsweise einfach aufzusetzen.

Eine Mischung aus Leidenschaft, Frust, Lernwillen und innerem Frieden

Auch bei mir hat sich vor immer mehr die Erkenntnis durchgesetzt, dass man vielen Diensten und Cloud-Services einfach nicht mehr trauen kann. Bestes Beispiel ist gerade wieder die Ankündigung von Mozilla, dass man das Bookmarking- und Read-It-Later-Tool Pocket zum 8. Juli einstellen wird. Ich habe es über viele Jahre genutzt, bin aber vor einiger Zeit auf Readeck umgestiegen, das auf meinem eigenen Server läuft. Der Umzug der Inhalte von Pocket zu Readeck war mit einem Klick erledigt.

Ich habe auch einige Jahre das Microsoft Office 365 Family Paket genutzt und Outlook 365 für meine Mails. Damals konnte man noch eine eigene Domain mit Outlook nutzen. Das wurde von Microsoft jedoch abgeschafft und man muss damit rechnen, dass auch Alt-Accounts das irgendwann nicht mehr nutzen können.

Eine Sache, die so viele zum Self-Hosting treibt, ist daher die zunehmende Enshittification. Dienste, auf die man Jahre vertraut hat, werden plötzlich eingestampft. Freemium-Versionen werden schrittweise bis zur Unbrauchbarkeit reduziert und die Abo-Gebühren steigen stetig. Zudem vergeht kein Tag, an dem nicht irgendein Cloud-Service gehackt wurde. Große Anbieter mit vielen Nutzern sind natürlich ein interessantes Ziel für Hacker.

Ebenfalls bemerkenswert ist die Sperre des E-Mail-Kontos des Chefanklägers des Internationalen Strafgerichtshofs durch Microsoft auf Befehl des geistigen Minderleisters im Weißen Haus. Offenbar springen die Tech-Bros, wenn das Trumpeltier möchte, dass ein digitaler Dienst abgeschaltet wird. Die Kombination aus High-Tech und Rückkehr des Mittelalters, die gerade in den USA entsteht, finde ich schon bemerkenswert.

Wie heißt es doch so schön:

“There is No Such Thing as ‘The Cloud’ – It’s Just Someone Else’s Computers”.

Ein weiterer Grund, seine Daten auf den eigenen Geräten zu halten, ist, dass Firmen wie Meta, Google, Adobe und viele andere unsere persönlichen Daten zum Trainieren ihrer KI-Modelle nutzen. Wenn man dem bei Meta vor einiger Zeit schon widersprochen hatte, muss man es jetzt noch einmal tun, und zwar getrennt für Facebook und Instagram. Die Verbraucherzentrale gibt hier einen Überblick: “Meta AI” bei Facebook, Instagram und WhatsApp – so widersprechen Sie | Verbraucherzentrale.de und hier: https://netzpolitik.org/2025/meta-ki-jetzt-widersprechen-oder-fuer-immer-schweigen/

Man darf sich hier aber nichts vormachen: Unsere Daten wurden schon lange zuvor abgeschnorchelt – dabei klammheimlich und rechtswidrig für das Training der vielen Ki-Modelle genutzt. Die gerade aufkommende Wunsch der Tech-Bros nach Abschaffung des Copyrights, spricht Bände.

Gleichzeitig ist die Auswahl an Open-Source-Anwendungen, die man selbst hosten kann, so enorm groß geworden, dass man für praktisch jede kommerzielle Cloud-Anwendung auch ein Open-Source-Pendant für den eigenen Server findet. Gleiches gilt für den Reifegrad der Anwendungen. Ein Immich Foto-Server kann heute ebenso viel wie Google Photos und der Speicherplatz ist nur durch die Größe der Festplatten im eigenen Server begrenzt.

Eine immer aktuelle Liste über die interessantesten und besten Anwendungen, die man selbst-hosten kann, findet man bei https://github.com/awesome-selfhosted/awesome-selfhosted

Wenn man Portainer nutzt, kann man diese URL unter Settings -> App Templates eintragen, die zahlreiche Anwendungen als fertige Docker-Container-Vorlagen enthält:

https://raw.githubusercontent.com/Lissy93/portainer-templates/main/templates.json

Diese Dienste hoste ich selbst

Ich betreibe seit 2017 einen Home-Server. Damals war OpenHAB als Smarthome-Steuerung die Hauptaufgabe des Servers, zusammen mit einem Fileserver auf Basis von Open Media Vault (OMV). Beide auf einer VMware ESXi Virtualisierung, die auf einem HP Microserver Gen 8 als Server lief. Dann kamen immer weitere Anwendungen hinzu und mit der Übernahme von VMware durch Broadcom – ebenfalls eine Lehrstunde in Enshittification – bin ich, mit einem Umweg über einen Unraid-Server, dann auf Proxmox umgestiegen.

Unraid tut übrigens auch viel dafür, um den Weg der Enshittification zu gehen. Zudem lohnt sich ein Unraid-Server meiner Ansicht nach nur, wenn als Hauptanwendung viel Festplattenkapazität benötigt wird – etwa für einen Mediaserver, also eher die NAS-Anwendung. Der Betrieb von Docker Containern und virtuellen Maschinen war bei mir unter Unraid immer etwas problematisch – besonders das Durchreichen von Hardware an virtuelle Maschinen z. B. zu Home Assistant.

HP Microserver Gen 8

So ging es 2017 mit meinem Home-Server los

Erst kürzlich habe ich dann den bisherigen Windows-Rechner aus meinem Tonstudio gegen einen Mac Mini M4 Pro ersetzt und die freigewordene PC-Hardware (AMD Ryzen 7 3700X, 32 GB RAM, NVMe- und SSD-Disks) wurde zum neuen Home-Server. Die altgediente Intel XEON E3-1230 v2 CPU des HP Microservers, war teilweise schon etwas zu schwachbrüstig für meine vielen Anwendungen. Der HP Microserver darf aber als Backup-Server und Hot-Spare für Home Assistant weiterlaufen.

Mein Proxmox-Server

Auf meinem Proxmox-Server laufen derzeit:

LXC-Container 1: Dienste, die nach außen gepublished werden

Auf dieser virtuellen Maschine werden diverse Docker Container bereitgestellt, die von außen erreichbar sein sollen. Sie stehen hinter einem Cloudflare-Proxy. Warum LXC-Container? Weil damit das Durchreichen des Google Coral USB TPU zuverlässiger und performanter ist, als bei einer VM. Ja, es gibt reichlich Diskussionen darüber, ob man Docker in einem LXC oder besser einer VM laufen lassen sollte. Im Home-Server-Bereich sehe ich dabei aber keine Probleme und hatte auch noch nie welche.

  • Readeck – Bookmark und Read-It-Later Anwendung als Pocket-Alternative
  • Joplin Sync-Server – für die Synchronisierung verschiedener Joplin-Clients. Warum nicht Obsidian? Weil es keine zuverlässige Sync-Lösung gibt, die man selbst hosten kann.
  • Umami Analytics – Ersatz für Google Analytics
  • VaultwardenPasswortmanager (Bitwarden)
  • Frigate NVR – KI-Kameraüberwachung für Home Assistant (unterstützt durch eine Google Coral TPU)
  • Immich – Alternative zu Google Photos
  • FreshRSS – RSS-Reader als Alternative zu Inoreader und Feedly, welche absurd teuer geworden sind
  • Portainer – zur Verwaltung dieser Docker Container
  • Diun – Benachrichtigung über vorhandene Container-Updates
  • Syncthing – Dateien per p2p Netzwerk synchronisieren

Virtuelle Maschine 1: Webdienste

Virtuelle Maschine 2: Dienste, die nur intern erreichbar sind

  • Paperless NGX – Dokumentenmanagement. Eine meiner unverzichtbaren, selbst gehosteten Anwendungen
  • Paperless AI – KI-Suche über alle Paperless Dokumente, automatisches Tagging etc.
  • Sterling-Tools – eine riesige Auswahl an PDF-Werkzeugen als Alternative zu Adobe Acrobat
  • MeTube – YouTube Downloader
  • Calibre Web – E-Book-Verwaltung
  • Portainer – zur Verwaltung dieser Docker Container
  • NodeRed – für ein paar Automatisierungspielereien, die in Home Assistant nichts verloren haben und früher auf einem Raspberry Pi liefen.

Virtuelle Maschine 3: Nextcloud

Nextcloud 13 mit diversen Apps. Darunter das Kochbuch, Mail, Collabora Office etc.

Virtuelle Maschine 4: Linux Mint –

Ein komplettes Linux mit Desktop, wenn ich mal ein Linux benötige.

Virtuelle Maschine 5: Windows 11

Für einige Dinge, die nur unter Windows laufen. Bedienung per Remotedesktop

Virtuelle Maschine 6: Home Assistant

Eine virtuelle Maschine mit HAOS. Als Add-ons habe ich hier nur Dienste, die sehr nahe an Home Assistant arbeiten.

LXC Container 2: Docker für diverse Tests und temporäre Anwendungen

LXC Container 3: Proxmox Backup Server (PBS)

LXC Container 4: Turnkey Linux mit Samba Server

Da Netzlaufwerke bei mir nur eine Nebensache sind, habe ich nur einen einfachen Samba-Server in einem LXC Container laufen. Open Media Vault oder gar TrueNAS wären für meine Bedürfnisse vollkommen übertrieben, da ich keine Netzlaufwerke mit viel Speicherkapazität benötige (außer meinem Backup-Server inkl. Timemachine für macOS und Syncthing).

Einige meiner Docker Container

Vom Mediaserver zur universellen Lösung

Für viele war ein Mediaserver der Start ins Self-Hosting. Dafür habe ich keinerlei Verwendung, da ich mich nicht für Filme und Serien interessiere – zumindest nicht dafür, diese selbst zu horten.

Offenbar ist aber wieder ein Trend hin zu illegalem Downloaden von Spielfilmen und Serien zu erkennen. Die Leute sind es einfach leid, dass eine Serie nur bei einem bestimmten Streaming-Anbieter läuft und man erst einmal herausfinden muss, wer das ist. Viele sind auch nicht mehr bereit, für zig Streaming-Dienste zu zahlen, die nun auch immer mehr Werbung einschieben.

Bild: https://www.reddit.com/user/skahteee/

Selbst-gehostete Anwendungen wie der arr-Stack, also Bazarr, Prowlarr Lidarr, Radarr, Jellyfin etc. machen es einfach, illegale Inhalte zu finden und automatisiert auf den Server zu laden – inkl. VPN-Verschlüsselung. Einen guten Überblick bekommt man hier: https://github.com/geekau/mediastack und hier https://github.com/Rick45/quick-arr-Stack

Ich möchte euch damit nicht zum illegalen Download ermutigen. Man sieht aber auch hier, dass die Enshittification der Streaming-Anbieter dazu führt, dass sich technisch versierte Kunden, komfortableren Lösungen zuwenden. Dabei ist der Betrieb eines Home-Servers und die nötigen Zusatzdienste wie VPN, Filehoster wie Rapidshare, NZB Indexer etc nicht unbedingt günstiger. Es geht darum, die Dinge wieder selbst in der Hand zu haben und ernst genommen zu werden.

Neben der Funktion als Mediaserver und NAS sind heute eben viele andere Dienste selbst machbar und lassen sich bestens nebenbei betreiben – die Hardware ist ja schon da.

Home-Server – Aufwand vs. Nutzen und Gefahren

Natürlich ist es deutlich aufwendiger, einen eigenen Server zu betreiben. Neben den Hardware- und Stromkosten muss man sich um Updates und Backups kümmern. Man kann dabei aber auch viel lernen und ganz neue Möglichkeiten entdecken. Die Stromkosten fallen durch unsere PV-Anlage nicht mehr ins Gewicht, auch wenn der neue Server mit Netzwerkswitch etc. gut 120 Watt zieht.

Hier sollte man auch klein anfangen. Mein Setup ist mittlerweile schon ziemlich umfangreich und komplex. Wer ohnehin Home Assistant mit HAOS nutzt, kann mittlerweile viele Dienste – darunter sogar Nextcloud oder Paperless NGX – als Add-on in Home Assistant betreiben.

Rechenzentrum

heladodementa / Pixabay

Ein Problem sind häufig Internetzugänge ohne eigene, feste IP-Adresse, was bei den meisten DSL- und Glasfaser-Anbietern der Fall ist. Wir sind derzeit noch bei einem regionalen DSL-Anbieter, bei dem eine feste IP dabei ist. Wenn der Glasfaseranschluss kommt, gibt es bei den privaten Tarifen nur dynamische IPs. Zuverlässige Abhilfe schafft Cloudflare DDNS.

Ebenso besteht immer eine gewisse Gefahr, wenn man Dienste nach außen öffnet. Das sollte natürlich niemals über eine Portweiterleitung im Router direkt zum entsprechenden Dienst erfolgen, sondern zumindest immer über einen Reverse-Proxy laufen (siehe oben: NGINX Proxy Manager oder auch Traefik).

Natürlich kann man viele Dienste auch auf einem V-Server z. B. bei einem Web-Hoster wie Hetzner, Strato etc. betreiben. Diese VServer gibt es schon für sehr wenig Geld und sie sind heute fast immer mit Docker ausgestattet bzw. dafür geeignet.

Eigener Mailserver? Besser bleiben lassen!

Ein eigener Mailserver, der auch wirklich als MX läuft, ist eine schlechte Idee – besonders bei einem Internetzugang mit dynamischer IP. Viele IPs von Internetzugangsprovidern sind durch Spammer, illegale Anwendungen etc. verbrannt und auf den Blacklists der Spamfilter, sodass eine Mail, die vom eigenen Mailserver versendet wurde, zu 100 % im Spamordner des Empfängers landet. Zudem sind die Anforderungen an Spamfilter beim Empfang so hoch, dass man einen selbst gehosteten Mailserver besser bleiben lassen sollte.

Was geht sonst noch?

Auf meinem Apple Mac Mini M4 Pro läuft ein lokales LLM, da ich im Hauptserver keine geeignete Grafikkarte habe und deren Verbrauch auf Dauer auch zu hoch wäre. Damit bleiben alle Daten, die ich an die KI übertrage, in meinem Netz und auf meiner Hardware. Derzeit greifen darauf die Joplin-Erweiterung Jarvis und NoteLLM zu. Auch Home Assistant ist daran angebunden und hört so auf komplexe Anweisungen. Der Mac Mini M4 ist hier recht potent, verbraucht wenig Strom und läuft ohnehin 24/7. Selbst das hervorragende Deepseek R1 32B Modell läuft auf dem Mac Mini erstaunlich gut und schnell. Allerdings entwickelt sich gerade qwen3:8b zu meinem Favoriten. Es hat eine gute Balance aus Größe, Geschwindigkeit und guten Ergebnissen. Als Basis nutze ich übrigens LM Studio statt Ollama.

Den Newsletter-Versand für nachbelichtet werde ich demnächst auch auf den Home Server umziehen. Mit Listmonk gibt es einen leistungsfähigen Newsletter-Manager, der per SES (AWS Simple Email Services) Newsletter versenden kann. Die jährlichen Kosten für Newsletter-Plugins für WordPress haben sich in 2 Jahren mehr als verdoppelt und es gibt praktisch keine wirklich guten kostenlosen Lösungen mehr, die auch SES beherrschen.

Außerdem sehe ich mir gerade n8n als Alternative zu NodeRed an, was für einige Automatisierungen, die sich nicht aufs Smarthome beziehen, interessant werden könnte.

Kein Backup – kein Mitleid!

Wenn man viele essenzielle Dienste selbst betreibt und die Daten dafür im Haus hat, ist eine Backup-Strategie unabdingbar. Nicht nur das regelmäßige Backup der Daten und Server-Konfiguration auf lokale Backup-Medien, sondern auch immer ein Backup außerhalb des Hauses. Ein Blitzschlag und Server, Festplatten und Daten sind futsch. Überschwemmung, Brand, Einbruch oder einfach Fehler bei Updates und Konfiguration, defekte Hardware und schon die Daten weg.

ORICO PHI35 Festplattenschutzbox

ORICO PHI35 Festplattenschutzbox für die Backup-Platte, die ich außer Haus aufbeware

Ich nutze die Backup- und Snapshot-Funktionen von Proxmox und den Proxmox Backup Server, um lokale Backups zu erstellen, als auch Backups zu einer Hetzner Storage Box hochzuladen. Zudem gibt es zwei externe Festplatten, die an einem anderen Ort aufbewahrt werden.

Fazit

Nie war es einfacher, Anwendungen selbst zu hosten und damit den großen Tech-Konzernen den Mittelfinger zu zeigen. Docker und Container-Templates machen es leicht, neue Anwendungen zu installieren und zu aktualisieren. Voraussetzung ist natürlich ein flotter Internetzugang, am besten mit eigener IP-Adresse.

Dem gegenüber stehen Hardware- und Stromkosten sowie der Zeitaufwand für die Einarbeitung , Updates und Wartung. Wer also einfach Nutzer bleiben will, muss weiter den Cloud-Anbietern trauen und denen gegebenenfalls immer mehr Geld in den Rachen werfen. Hat man sich aber erst einmal etwas mit dem Self-Hosting befasst (und hat idealerweise schon Kenntnisse im Umgang mit Linux, Netzwerktechnik etc.) ist der Einstieg einfach.

Nie war es deutlicher und wichtiger, die Datenhoheit zurückzuerhalten. Das zeigen die aktuellen Entwicklungen aus den USA und wie blank Europa diesbezüglich dasteht. Zu wissen, dass man wesentliche Dienste selbst in der Hand und im Haus hat, finde ich nicht nur beruhigend, sondern ich bin auch etwas stolz darauf.

Ist Homeway.io eine günstigere Alternative zu Nabu Casa, wenn es um Home Assistant geht?

Mit der Möglichkeit, aus der Ferne auf Home Assistant zuzugreifen, wird das Smarthome noch smarter. Dazu gibt es mehrere Möglichkeiten wie Wireshark, klassisches VPN, Tailscale oder per Cloudflare Tunnel. All diese Verfahren setzen jedoch technischen Sachverstand und einiges an Konfigurationsaufwand voraus, zudem schließt man damit die Nutzung von Alexa & Co. aus. Diese erfordert die Erreichbarkeit der Home Assistant Instanz aus dem Internet, weshalb hier praktisch nur noch selbst gehostete Reverse Proxies übrig bleiben, welche es als Home Assistant Add-on (z. B. Nginx Proxy Manager) gibt. Diesen kann man dann noch hinter einem kostenlosen Cloudflare Proxy “verstecken” und damit weiter absichern (was übrigens mein Weg ist).

Der kommerzielle Teil hinter Home Assistant, die Firma Nabu Casa, bietet schon lange einen Service an, der das stark vereinfacht. Für derzeit 7,50 € pro Monat oder 75 € pro Jahr bekommt man mit der Home Assistant Cloud verschlüsselten und gesicherten Zugriff auf seine Home Assistant Installation, sowie praktisch eine Plug-and-play-Lösung für Sprachassistenten wie Amazon Alexa oder Google Assistant. Zudem unterstützt man die Weiterentwicklung von Home Assistant finanziell.

Homeway.io – die günstige Nabu Casa Alternative?

Seit einiger Zeit gibt es mit Homeway.io nun einen Dienst, der mit Nabu Casa vergleichbar ist und sich als kostengünstige Alternative positioniert. Das ist in der Einstiegsversion sogar kostenlos. Allerdings spricht der Anbieter hier von “gedrosselter Geschwindigkeit” sowie “Datenlimits”, ohne diese genauer zu spezifizieren. Außerdem ist in der kostenlosen Version keine Einbindung von Alexa oder Google Assistant enthalten.

UPDATE 08.05.2025: Bei Discord wurden vom Entwickler 500 MB monatlicher Traffic für den kostenlosen Account angegeben.

Homeway.io kostenlos vs. bezahlt

Hier muss man zu einer kostenpflichtigen Version greifen, die mit $2,49 pro Monat deutlich billiger ist, als das Angebot von Nabu Casa. 2,49 US-Dollar sind, Stand heute, gerade mal 2,20 € – Tendenz: fallend. Die kostenpflichtige Version kann man 30 Tage lang kostenlos testen.

Voraussetzung für den Betrieb ist ein Add-on, das in Home Assistant installiert werden muss, welches aber auch als eigener Docker-Container zur Verfügung steht (Home Assistant Add-ons sind grundsätzlich auch nur Docker-Container). Man verbindet sich dann darüber mit seinem vorher angelegten Homeway.io Account und schon kann man aus der Entfernung auf Home Assistant zugreifen und erhält die Möglichkeit, Sprachassistenten zu nutzen.

Die Einrichtung von Homeway.io ist sehr einfach gestaltet

Ich habe Homeway.io ausprobiert und tatsächlich ist die Einrichtung sehr einfach. In der Alexa App wählt man anschließend den Homeway.io Skill aus und erhält damit auch die Alexa-Steuerung. Allerdings werden alle Entitäten zu Alexa veröffentlicht, und ich habe keine Möglichkeit gefunden, dies vorher einzuschränken. Bei Nabu Casa kann über die Benutzeroberfläche konfiguriert werden, welche Entitäten Alexa kennen soll, und wenn man Alexa manuell in Home Assistant einbindet, kann das über Configuration.yaml eingeschränkt werden.

Mit “Sage”, bietet Homeway.io zusätzlich die Anbindung an KI-Dienste wie OpenAI, Google Gemini und Anthropic für Home Assistant an. Dies ist in der kostenpflichtigen Version von Homeway bereits enthalten.

Wenig Transparenz über die Macher hinter Homeway.io

Was mich an Homeway.io stört, ist, dass man nicht weiß, mit wem man es zu tun hat. Auf der Seite gibt es keine Adresse, keinen Firmensitz, keine Namen. Man erfährt nicht, welche Dienste dafür eingesetzt werden und wo die Standorte der Server sind. Wohin die $2,49 Gebühr fließen, ist ebenso nebulös und es fallen auch keine Steuern an, wenn man als EU-Bürger den Dienst abonniert. Man erfährt nur, dass es sich bei Homeway.io um einen einzelnen Entwickler handelt, auch wenn gerne von “Community” gesprochen wird.

Bei Reddit und auch im Discord-Kanal von Homeway.io kann man von Problemen und Ausfällen des Dienstes, sowie trägen Reaktionen bei der Nutzung von Alexa lesen. Es gibt aber auch viele positive Stimmen. Fairerweise hatte ich auch festgestellt, dass die Home Assistant Cloud meine Sprachbefehle deutlich langsamer verarbeitet, als es meine manuelle Einbindung ohne Nabu Casa kann.

UPDATE 08.05.2025: Es gibt bei Discord einige User, deren Home Assistant Installation instabil wurde, nachdem sie das Homeway.io Add-On installiert hatten. Nach der Deinstallation lief es wohl wieder normal.

Was Homeway.io und 3D-Drucker gemeinsam haben

Interessant daran ist, dass hinter Homeway.io wohl der gleiche Entwickler steckt, von dem auch der 3D-Druckerdienst https://octoeverywhere.com/ ist. Ich habe eine E-Mail an die Support-Adresse von Homeway geschickt und um Informationen über den Standort der Firma, Server-Standorte und eingebundene Drittanbieterdienste gebeten. Daraufhin habe ich eine automatisierte Antwort von “Helix from OctoEverywhere” erhalten, gepaart mit dem Hinweis, dass ich die Anfrage zuerst über ihren Messenger/Chatbot auf der Website stellen muss. Die Webseiten von Homeway.io und OctoEverywhere sehen sich sehr ähnlich.

OctoEverywhere und Homeway.io - gleicher Entwickler

Mit dieser Information habe ich dann ein Interview mit dem Entwickler von OctoEverywhere und daher auch dem mutmaßlichen Kopf hinter Homeway.io gefunden. Er heißt Quinn Damerell.

Hat man erst einmal seinen Namen, findet man sein bemerkenswertes Github Repository und erfährt, dass er in Seattle/USA lebt. Quinn ist auch der Kopf hinter den 3D-Drucker-Interfaces Mainsail, Fluidd sowie Moonraker, welche ich sogar selbst mit meinen 3D-Druckern nutze. Er ist ganz offensichtlich ein sehr fähiger Entwickler, denn seine anderen Projekte sind weitverbreitet und genießen in der 3D-Drucker-Szene hohe Anerkennung. Auf dieser Basis kann man ihm eigentlich nur beste Absichten zugestehen.

Man muss auch wissen, dass es in den USA – im Gegensatz zu Deutschland – keine Impressumspflicht gibt und es teils sogar verpönt ist. Wenn es jedoch um Cloud-Dienste geht, mit denen man den Zugriff auf Home Assistant gewährt, würde man schon gerne wissen, mit wem man es zu tun hat und welche Technik dahintersteckt. Zudem fordert die Federal Trade Commission (FTC) in den USA von jedem Unternehmen, dass es eine physische Adresse, einen Unternehmensnamen sowie eine Telefonnummer und E-Mail-Adresse auf der Website veröffentlicht. Inwiefern das unter dem orangen Kasper in Washington noch Bestand hat, ist fraglich.

Fazit

Ist Homeway.io eine günstigere Alternative zu Home Assistant’s Nabu Casa? Günstiger ist es auf jeden Fall und es wird immer preiswerter, wenn der Dollarkurs weiter so stark fällt. Die Einrichung von Homeway.io ist sehr einfach und wird Schritt für Schritt erklärt. Bei Bedarf helfen sogar Video-Tutorials.

Homeway hat theoretisch sogar einen Sicherheitsvorteil, weil es, im Gegensatz zu Nabu Casa, die Adressen der einzelnen Home Assistant Instanzen nicht im Internet sichtbar macht. Mit einer einfachen Suche bei Bing, mit site:ui.nabu.casa, erhält man seitenweise Adressen von erreichbaren Home Assistant Instanzen, von deren Zugang nur mehr oder weniger starke Passwörter trennen.

Bei Homeway.io sind diese Adressen nur über den User-Account von Homeway einsehbar. Dieser kann zudem per Zweifaktor-Authentifizierung zusätzlich abgesichert werden.

Auf der negativen Seite stehen die geringe Transparenz hinsichtlich des Anbieters und der Dienste, die er nutzt, sowie Berichte über schlechte Performance. Natürlich ist es auch immer ein Risiko, auf einen Dienst zu setzen, hinter dem nur eine Person steckt. Im Notfall kann man natürlich zu Nabu Casa wechseln, da das mit nur sehr geringem Aufwand verbunden wäre.

Selbstverständlich freut es mich, wenn weitere Angebote und Dienste rund um Home Assistant entstehen, und Homeway.io ist durchaus interessant.

Ich habe bei Homeway.io um Klärung über den Firmensitz, eingesetzte Drittanbieterdienste etc. gebeten und werde euch informieren, sobald ich eine Antwort erhalten habe.

Mehr Infos: https://homeway.io

Was ist Home Assistant und was kann man damit überhaupt machen?

Home Assistant ist in den letzten 3 Jahren richtig groß und bekannt geworden, auch wenn es den Smarthome-Hub schon seit 2013 gibt – zumindest wurde Home Assistant 2013 erstmals bei Github veröffentlicht. Richtige Fahrt hat das Open-Source-Projekt um 2020. Zu der Zeit waren OpenHAB, ioBroker und Domoticz die Platzhirsche, zusammen mit mehr Hersteller-gebundenen Systemen wie z. B. Homematic.

Im Bereich der Hausautomatisierung stellt Home Assistant eine populäre und leistungsstarke Lösung dar und darf heute gut und gerne als Standard in diesem Bereich betrachtet werden. Es handelt sich um eine Open-Source-Software, die darauf abzielt, verschiedenste Smart-Home-Geräte unterschiedlicher Hersteller unter einer einheitlichen Oberfläche zu vereinen und zu steuern. Dieser Beitrag beleuchtet, was Home Assistant ist, welche Möglichkeiten es bietet, inwiefern es beim Energiesparen helfen kann und welche Kosten damit verbunden sind.

Meine Homeassistant Installation vorgestellt

Was ist Home Assistant überhaupt?

Home Assistant ist eine quelloffene Softwareplattform zur Hausautomatisierung, die lokal auf eigener Hardware betrieben wird. Der Fokus liegt auf lokaler Steuerung und Datenschutz, was bedeutet, dass die Daten primär im eigenen Netzwerk verbleiben und nicht zwingend auf Cloud-Server der Gerätehersteller angewiesen sind. Durch seine offene Architektur und eine große Entwickler-Community unterstützt Home Assistant eine immense Anzahl an Geräten und Diensten – von Lampen und Schaltern über Sensoren und Thermostate bis hin zu Multimedia-Geräten und Wetterdiensten.

Kurz gesagt, ist Home Assistant ein Koordinator, der ganz unterschiedliche Systeme vereinigen, steuern und anzeigen kann.

Was kann man mit Home Assistant tun?

Die Kernfunktionalitäten von Home Assistant umfassen:

  1. Integration: Es kann Tausende von Geräten und Diensten verschiedenster Marken einbinden. Dies ermöglicht es, Insellösungen einzelner Hersteller zu überwinden und eine zentrale Steuerung zu etablieren. Anstatt für jedes “smarte” Gerät die jeweilige App zu nutzen, vereint Home Assistant alles unter einer Oberfläche und kann damit hersteller-, protokoll- und softwareübergreifend steuern und Funktionen zusammenführen. Damit können sich völlig unterschiedliche Geräte miteinander “unterhalten”, was völlig neue Funktionen, Automationen und Möglichkeiten schafft.
  2. Automatisierung: Die wahre Stärke liegt in der Erstellung von Automatisierungsregeln. Nutzer können komplexe Wenn-Dann-Szenarien definieren. Beispiele hierfür sind:
  3. Lichter automatisch bei Sonnenuntergang einschalten oder bei Abwesenheit ausschalten. So kann man etwa feststellen, ob die Smartphones der Bewohner im heimischen WLAN angemeldet sind, was Anwesenheit bedeutet. Sind hingegen keine Smartphones angemeldet, kann man daraus eine Abwesenheit ableiten. Um hier sicherzugehen, lassen sich etwa Bewegungsmelder in die Automation integrieren. Wenn diese zusätzlich seit 15 Minuten keine Bewegung mehr im Haus festgestellt haben, ist wirklich niemand mehr da – sofern man keine größeren Haustiere hat.
  4. Die Heizungstemperatur basierend auf Anwesenheit, Außentemperatur oder Zeitplänen regeln.
  5. Benachrichtigungen senden, wenn Fenster bei Regen geöffnet sind oder wenn bestimmte Sensoren auslösen (z.B. Rauchmelder, Bewegungsmelder).
  6. Multimedia-Geräte steuern oder Szenen für Heimkino-Abende erstellen. So kann man automatisch die Jalousien schließen und das passende Fernsehlicht einschalten, sobald der Fernseher eingeschaltet wird und es außen dunkel ist.
  7. Den Rasenroboter stoppen, wenn die Wetterstation Regen meldet, auch wenn dieser selbst keinen Regensensor besitzt. Andersherum kann man die automatische Bewässerung des Rasens stoppen, wenn der Mäher unterwegs ist, auch wenn die Systeme von völlig unterschiedlichen Herstellern sind.
  8. Steuerung und Visualisierung: Über eine webbasierte Benutzeroberfläche (“Lovelace”) können Nutzer den Status ihrer Geräte einsehen und diese manuell steuern. Dashboards lassen sich individuell anpassen, um relevante Informationen und Steuerelemente übersichtlich darzustellen.
  9. Datenerfassung und -analyse: Home Assistant kann Sensordaten (Temperatur, Luftfeuchtigkeit, Energieverbrauch etc.) über Zeit aufzeichnen und visualisieren, was Einblicke in das eigene Zuhause ermöglicht.
  10. Eigene Sensoren und Aktoren bauen: Mit ESPHome bietet Home Assistant eine integrierte Plattform, mit der man eigene Hardware auf Basis von z. B. ESP Mikrocontrollern einbinden kann.
    Beispiele von mir sind hier z. B. der Pegelsensor für unsere Regenwasserzisterne oder meine eigene Bewässerungssteuerung.
  11. Einbindung von Überwachungskameras: Mit der Hilfe von Home Assistant und Frigate, kann man Überwachungskameras intelligent machen, sodass sie etwas zwischen Mensch und Tier unterscheiden können. Damit wird aus der Kamera ein intelligenter Bewegungssensor, der Licht nur einschaltet, wenn die Bewegung durch einen Menschen erkannt wurde.
  12. Vorausschauende Wartung: Das ist erstaunlicherweise ein Bereich, den man in Zusammenhang mit Home Assistant recht wenig lesen kann. Wenn man z. B. Tür- und Fenstersensoren hat, kann man diese auch dazu nutzen, zu zählen, wie oft sie geöffnet und geschlossen wurden. Auf dieser Basis kann man dann x Betätigungen, Benachrichtigungen versetzen, dass man die Beschläge schmieren sollte.

Ich zähle bei meiner “dummen” Siebträgerkaffeemaschine, wie oft sie (über eine smarte Steckdose) im Einsatz war und lasse mich benachrichtigen, wann ich sie reinigen und entkalken sollte.

Hilft Home Assistant beim Energiesparen?

Ja, Home Assistant kann ein wirkungsvolles Werkzeug sein, um den Energieverbrauch im Haushalt zu senken, jedoch erfordert dies eine bewusste Konfiguration und entsprechende Hardware. Das Potenzial liegt in folgenden Bereichen:

  1. Intelligente Heizungssteuerung: Durch die Verknüpfung von Thermostaten mit Präsenzmeldern, Fensterkontakten und Zeitplänen kann die Heizung effizienter betrieben werden. Räume werden nur bei Bedarf und nicht bei geöffneten Fenstern geheizt. Mit Home Assistant lassen sich auch Daten von Wetterdiensten einbinden, zusätzlich in eine Automation eingebunden werden können.
  2. Optimierte Beleuchtung: Automatisches Ausschalten von Lichtern in ungenutzten Räumen (via Bewegungsmelder) oder Anpassung der Beleuchtung an das Tageslicht kann Strom sparen. Allerdings haben moderne LED-Leuchtmittel einen so geringen Stromverbrauch, dass hier das Einsparpotenzial begrenzt ist.
  3. Überwachung des Energieverbrauchs: Durch smarte Steckdosen mit Messfunktion oder spezielle Energiemesser lassen sich “Stromfresser” identifizieren. Home Assistant kann den Verbrauch einzelner Geräte oder des gesamten Haushalts visualisieren.
  4. Lastmanagement: Geräte mit hohem Verbrauch (z.B. Waschmaschine, Trockner, Elektroauto-Ladestation) können gezielt dann aktiviert werden, wenn Strom günstig ist (dynamische Tarife) oder wenn die eigene Photovoltaikanlage Überschuss produziert.
  5. Standby-Reduzierung: Nicht benötigte Geräte können über smarte Steckdosen vollständig vom Netz getrennt werden, anstatt im Standby-Modus Energie zu verbrauchen. Wobei man auch hier beachten sollte, dass so manches moderne Gerät weniger Standby-Verbrauch hat, als manche smarte Steckdose zum Betrieb benötigt.

Es ist wichtig zu betonen, dass Home Assistant selbst keine Energie spart. Es stellt lediglich die Plattform und die Werkzeuge bereit, um energiesparende Automatisierungen und Überwachungen zu realisieren. Der Erfolg hängt von der eingesetzten Hardware (Sensoren, Aktoren) und der durchdachten Konfiguration durch den Nutzer ab.

Heizungsdaten mit Home Assistant erfasst und mit Grafana dargestellt

So kann man über eine Langzeitaufzeichnung von Raumtemperaturen, Außentemperatur, Heizungsvor- und Rücklauf, Heizungsstarts und Verbrauch Rückschlüsse auf mögliche Optimierungen ziehen. Darunter etwa einen wirklich genauen hydraulischen Abgleich des Heizkreislaufs. In gedämmten Häusern erübrigt sich damit oft sogar eine Einzelraumregelung. Wir haben keine, denn unsere Heizung reguliert sich selbst.

Was kostet Home Assistant?

  1. Die Software: Home Assistant ist Open Source und somit kostenlos verfügbar.
  2. Die Hardware: Home Assistant benötigt eine Plattform, auf der es läuft. Die Kosten hierfür variieren stark:
  3. Raspberry Pi: Eine beliebte und relativ kostengünstige Option (Kosten variieren je nach Modell und Zubehör, ca. 50-100 €).
  4. Dedizierte Geräte: Hersteller wie Home Assistant bieten optimierte Hardware an (z.B. Home Assistant Green oder Yellow, ca. 100-200 €).
  5. Mini-PCs (NUCs) oder alte Laptops/PCs: Leistungsstärker, aber auch teurer bzw. nutzt vorhandene Hardware.
  6. NAS-Systeme oder Server: Kann als virtuelle Maschine oder Docker-Container laufen, wenn entsprechende Infrastruktur vorhanden ist.

    Einen Überblick über mögliche Hardware-Lösungen für Home Assistant, deren Vor- und Nachteile und meine Empfehlungen, findest du hier: Welche Hardware soll ich für Home Assistant wählen? 3. Optionale Cloud-Dienste: Für einfachen Fernzugriff und die Integration mit Sprachassistenten wie Alexa oder Google Assistant bietet das Home Assistant-Projekt den kostenpflichtigen Cloud-Dienst “Nabu Casa” an (derzeit ca. 7,50 €/Monat oder 75 €/Jahr). Dieser Dienst ist rein optional; Fernzugriff lässt sich auch manuell konfigurieren. Ebenso die Einbindung von Sprachassistenten wie Alexa. 4. Smart-Home-Geräte: Die größten Kosten entstehen in der Regel durch die Anschaffung der eigentlichen Smart-Home-Komponenten (Sensoren, Aktoren, Lampen, Thermostate etc.), die in Home Assistant integriert werden sollen. Hier möchte ich darauf hinweisen, dass man vor der Anschaffung unbedingt darauf achten sollte, dass sich das jeweilige Gerät auch ohne große Tricks in Home Assistant integriert und ob es eine Integration dafür gibt. Ist das nicht der Fall, hat ein Hersteller bei mir keine Chance mehr. 5. Zeit! Home Assistant wird zwar mit jeder neuen Version immer benutzerfreundlicher. So lassen sich mittlerweile auch komplexere Automationen über die grafische Benutzeroberfläche zusammenklicken. Es benötigt jedoch Zeit und Lust, sich die Grundlagen anzueignen, und technischer Sachverstand sowie die Bereitschaft, sich seine Informationen selbst zu suchen, gehören ebenso dazu. Das hervorragende Forum hilft ebenso, wie das Home Assistant Subreddit. Allerdings kommt man mit englischen Sprachkenntnissen sehr viel schneller voran und ich halte sie sogar für unabdingbar.

Vor- und Nachteile von Home Assistant

Vorteile:

  • Hohe Flexibilität und Anpassbarkeit: Kaum eine andere Plattform bietet einen vergleichbaren Grad an Freiheit bei der Gestaltung von Dashboards und Automatisierungen.
  • Enorme Geräteunterstützung: Integration tausender Geräte verschiedenster Hersteller.
  • Open Source: Keine Abhängigkeit von einem einzelnen kommerziellen Anbieter, hohe Transparenz.
  • Lokale Steuerung & Datenschutz: Daten bleiben primär im eigenen Netzwerk.
  • Starke Community: Umfangreiche Dokumentationen, Foren und zahlreiche Anleitungen online verfügbar.
  • Keine laufenden Kosten für die Kernsoftware.

Nachteile:

  • Einarbeitungsaufwand: Die Einrichtung und Konfiguration erfordern technisches Verständnis und Zeit. Es ist keine Plug-and-play-Lösung.
  • Wartungsaufwand: Regelmäßige Updates der Software und der Integrationen sind notwendig.
  • Hardware erforderlich: Es muss dedizierte Hardware für den Betrieb bereitgestellt werden.
  • Fehlersuche: Bei Problemen kann die Fehlersuche komplex sein.
  • Kosten für Hardware und Geräte: Auch wenn die Software kostenlos ist, können sich die Kosten für die Basis-Hardware und die Smart-Home-Geräte summieren.

Fazit

Home Assistant ist eine äußerst mächtige und flexible Smart-Home-Zentrale für technisch versierte Nutzer, die Wert auf Kontrolle, Datenschutz und Unabhängigkeit von einzelnen Herstellern legen. Es bietet umfangreiche Möglichkeiten zur Automatisierung und kann, richtig konfiguriert, auch signifikant beim Energiesparen unterstützen.

Dem gegenüber stehen jedoch ein gewisser Einarbeitungs- und Wartungsaufwand sowie die Notwendigkeit, eigene Hardware bereitzustellen. Für Anwender, die eine einfache Plug-and-play-Lösung suchen, ist Home Assistant möglicherweise weniger geeignet. Für Bastler und Enthusiasten ist es jedoch oft die bevorzugte Wahl.

Komoot verkauft – Daten sichern und Alternativen

Komoot ist wohl eine der bekanntesten Plattformen für die Planung und das Logging von Touren – egal ob zu Fuß oder mit dem Fahrrad. Nun wurde Komoot an die berühmt-berüchtigte Firma Bending Spoons nach Italien verkauft.

Bending Spoons – das Musterbeispiel für Enshittification

Diese haben in den letzten Jahren schon gezeigt, dass es hier einzig um Gewinnmaximierung geht. Was Bending Spoons mit den aufgekauften Diensten macht, ist praktisch DAS Musterbeispiel von Enshittification. Bending Spoons haben die Video-App Filmic Pro gegen die Wand gefahren. Bei der Evernote-Übernahme wurden alle Mitarbeiter entlassen, das Produkt wurde teurer und kaum weiterentwickelt. Die kostenlose Version von Evernote wurde bis zur Nutzlosigkeit beschränkt und genau das sehe ich auch auf Komoot zukommen. Ich bezweifle, dass es zukünftig noch eine sinnvoll einsetzbare kostenlose Variante von Komoot geben wird.

Bei Komoot hat man immer recht interessante Touren gefunden, wenngleich die Planung unnötig umständlich war. Zudem fördert ein solches Portal natürlich auch, dass beliebte Routen immer voller werden oder Leute vollkommen unvorbereitet auf Wegen herumstolpern, für die sie nicht die Kondition haben. Aber sei’s drum!

AngebotBestseller Nr. 1NIGRIN BIKE-CARE Allwetter-Kettenöl, 100 ml Flasche, Fahrradkettenöl, verringert Reibung, macht Fahrradketten leichtläufigNIGRIN BIKE-CARE Allwetter-Kettenöl, 100 ml Flasche, Fahrradkettenöl, verringert Reibung, macht Fahrradketten leichtläufig

Komoot Alternativen

Wenn ich mit dem Fahrrad unterwegs bin, zeichnet die Bosch Flow App die Route ohnehin auf und als Alternativen gibt es Apps wie Locus Pro oder OsmAnd und auch Strava bietet entsprechende Funktionen.

Für die reine Routenplanung für Fahrradtouren gefällt mit der kostenlose https://bikerouter.de/ ausgezeichnet. Die Planung ist sehr einfach und intuitiv, mit mehreren Profilen, z. B. Strecken mit mehr oder weniger Offroad-Wegen usw. Dabei plant Bikerouter bei meinen Vergleichen sehr viel besser, als es Komoot tut – zumindest bei meinen Stichproben in unserer Region (Fichtelgebirge, Oberfranken).

Die damit geplanten Touren können dann einfach als GPX-Datei exportiert und in einer Navigations-App oder eben in Bosch Flow geöffnet werden. Mit einem Klick kann man in Bikerouter die Strecke einfach umkehren, damit man auch wieder zum Ausgangspunkt zurückfindet.

Wie man seine Komoot-Touren und Daten sichert und exportiert

Als zahlender Premium-User kann man alle Touren zusammen per Klick exportieren. Der Button dazu, befindet sich bei den gespeicherten oder abgeschlossenen Touren, links neben “GPS-Datei importieren”. Da ich zwar das Weltpaket, aber keinen Premium-Account habe, kann ich leider keinen Screenshot zeigen.

Als Nutzer der kostenlosen Version müsste man jede Tour einzeln herunterladen. Einfacher geht es mit einer Mail an datenschutzbeauftragter@komoot.de, denn nach Art. 20 DSGVO und dem damit verbundenen Recht auf Datenübertragbarkeit, steht euch eine Sicherung eurer gesamten Daten zu.

Inhalt des Komoot-Zip-Achivs

Ich habe Komoot über die genannte Adresse (ich nannte die, mit meinem Account verbundene E-Mail-Adresse sowie die Komoot-ID aus den Profileinstellungen) angeschrieben und hatte wenige Minuten später eine sehr freundliche Antwort mit einem Download-Link zu einem Zip-Archiv. Darin enthalten waren alle meine Touren als GPX-Datei, alle Fotos, Profileinstellungen, Kommentare, Likes etc. Wenn man viele Touren geplant und abgeschlossen hat, ist das der einfachste Weg, an seine Daten zu kommen.

Ich werde die Entwicklung bei Komoot nun einmal beobachten, wobei es für mich so oder so kein sehr tragischer Verlust wäre, da es eben genügend Alternativen gibt, die häufig eine deutlich bessere Routenplanung bieten.

Obsidian, Joplin und das Produktivitäts-Paradoxon

Die Tücken der Anpassbarkeit

Obsidians größte Stärke – die schier endlose Anpassbarkeit – erweist sich oft als seine größte Schwäche. Nutzer können sich leicht in einem Strudel endloser Optimierungen verlieren. Jede Minute, die mit dem Feintuning von Plugins und Systemeinstellungen verbracht wird, ist eine Minute, die nicht für tatsächliche produktive Arbeit oder tolle Ideen genutzt wird.

Im offiziellen Subreddit von Obsidian, kann man wiederholt lesen, wie man was am besten in Obsidian organisiert, und viele verbringen mehr Zeit damit, ihre Notizen und Journale besonders hübsch aussehen zu lassen oder die optimale Struktur zu finden, als Obsidian an Zeit spart.

Die Qual der Wahl

Die Fülle an Optionen in Obsidian führt oft zum Auswahlparadox und Obsidian ist hier das Subway der Personal Knowledge Management Systeme (PKM oder PKMS). Ich gehe nicht zu Subway, weil mich die tausend Fragen nach Brot, Belag, Soße, Cookies usw. einfach nur nerven. Wenn ich in einen solchen Laden gehe, will ich essen – schnell und einfach und keinen Multi-Choice-Test absolvieren.

Anstatt effizient zu arbeiten, verbringen Nutzer kostbare Zeit damit, die perfekte Konfiguration zu finden (die es ohnehin nicht geben kann). Dieses Überangebot kann zu Stress und Unzufriedenheit führen, anstatt die versprochene Produktivitätssteigerung zu liefern.

Das Obsidian Rabbit-Hole

Selbst wenn man sein perfektes Setup gefunden hat, ist man nicht aus dem Schneider. Updates können Plugins unbrauchbar machen, kritische Funktionen können plötzlich nicht mehr unterstützt werden. Für vielbeschäftigte Kopfarbeiter kann dies zu einer echten Katastrophe werden.

Letztendlich geht es darum, schnell Gedanken, Wissenswertes und – Vorsicht, blödes Wort: Aufhebenswertes, so einfach wie möglich festzuhalten und wiederzufinden. Templates für ein tägliches Journal, also Inhalte mit immer gleicher Struktur, sind sicher sinnvoll, aber nicht jeweils ein Template für jeden Mist, nur weil es hübsch und konsitent aussieht. Einfache Notizen sind einfacher Text – ohne tolle Headergrafik, zig Icons und Emojis. Wenn man Entwickler ist, sollen Code-Schnipsel ordentlich dargestellt werden, und das war es. Copy-and-paste. Festgehalten. Fertig! Get Shit Done!

Letztendlich geht es darum, schnell Gedanken, Wissenswertes und – Vorsicht, blödes Wort: Aufhebenswertes, so einfach wie möglich festzuhalten und wiederzufinden.

Ein ordentliches PKM hat eine Suchfunktion, die Inhalte schnell wieder auffindet und einige wenige Tags sorgen für zusätzliche Struktur.

Ein Obsidian-Universum

Oft habe ich aber gerade bei Obsidian und Notion den Eindruck, dass es wie ein Poesiealbum genutzt wird, was besonders schön und eindrucksvoll aussehen soll. Die Graph-Ansicht wird gerne stolz in Foren geteilt und sieht häufig aus, als ob das James-Webb-Teleskop gleich mehrere Galaxien mit Myriaden von Sternen fotografiert hätte. Es geht nicht mehr um das PKMS als hilfreiches Werkzeug, sondern um das Werkzeug selbst. Der Selbstoptimierungswahn der Gen-Z tut da sein Übriges. Wenn man nichts produktives getan hat, so hat man zumindest Obsidian wieder etwas verbessert und ein Stück komplexer gemacht.

Gerade wenn es um das Thema Journaling geht, also die Aufzeichnung der Aktivitäten, Gedanken und Erlebnisse des Tages – vulgo: Tagebuch – tun sich bizarre Dinge auf. Zwar halte ich auch fest, was ich angefangen habe oder mache Notizen über Gespräche etc. Wenn ich aber sehe, dass jede Serienepisode, jeder Film, jedes Buch etc. mit Inhalt und Meinung dazu niedergeschrieben wird, bin ich raus. Allerdings bin ich auch bei “Achtsamkeit” raus. Man muss heute so Achtsam sein, dass es schon wieder zum Stressfaktor wird. Man kann auch einfach einmal nichts tun – ganz ohne achtsam zu sein. Und man muss auch nicht jeden Tag etwas in Journal schreiben. Wenn es nichts gab, gab es eben nichts. Ein PKMS soll helfen und unterstützen. Es soll keinen zusätzlichen Aufwand erzeugen und darf nie im Weg stehen.

Was ist denn wirklich “aufhebenswert“?

In diese Falle bin ich auch getappt und das schon, seitdem ich 2010 mit Evernote begonnen habe. Bookmarks, irgendwelche temporären Notizen, die Stunden oder nur wenige Tage später ohnehin überflüssig waren, PDFs, Rechnungen etc. – alles floss in Evernote. Das Ergebnis war ein Wust an Inhalten. Im Zuge meiner Tests und Wechsel zwischen verschiedenen PKMS, habe ich diese Inhalte aussortiert, bevor ich sie in ein neues System importiert habe.

Von fast 1 GB an Export-Daten aus Evernote, blieben letztendlich 80 MB (inkl. Anhängen wie Bilder) an wirklich noch immer relevanten Informationen übrig. Der Rest war veraltet oder aus anderen Gründen nicht mehr relevant.

Ein PKMS soll helfen und unterstützen. Es soll keinen zusätzlichen Aufwand erzeugen und darf nie im Weg stehen.

MDH für Notizen festlegen

Ich habe mich darum dazu entschlossen, eine Art Mindesthaltbarkeitsdatum für meine Notizen einzuführen. Damit definiere ich einen Zeitraum, den ich bei der Erstellung einer Notiz vorgeben und der mir sagt, wie lange ich eine Notiz aufheben will.

https://commons.wikimedia.org/wiki/File:Braunschweiger_Mettwurst_W_25_MSZ111114.jpg

Das habe ich über einige wenige und einfach verstehbare Tags realisiert:

keep-1w, keep-1m, keep-3m, keep-6, keep-1y, keep-5y und letztendlich keep

Temporäre Notizen, werden eine Woche aufgehoben (keep-1w). Wichtige Dinge z. B. 1 Jahr (keep-1y) und hat eine Notiz das Tag keep, wird es immer aufgehoben, was etwa für Journaleinträge sinnvoll ist.

Jedes PKMS kann nach Tags suchen. Eine Suche nach keep-1w bringt die Notizen mit kurzer Lebensdauer zu Tage, die man dann schnell und einfach löschen, in eine neue Notiz überführen oder mit einem neuen MDH versehen kann. Damit hält man sein PKM schlank und übersichtlich.

Nicht für jeden Mist eine eigene Notiz anlegen

Auch das ist eine Erkenntnis aus vielen Jahren des persönlichen Knowledge Managements. Es ist viel zu umständlich und damit zeitaufwendig, für jeden Gedanken des Tages oder der Woche eine eigene Notiz mit Titel, Tags oder Ordner anzulegen. Ich nutze hier einfach eine Art digitalen “Schmierzettel”. Eine große Notiz, die ganz oben angepinnt ist und in die ich alles ganz schnell kopieren und schreiben kann. Komplett unformatiert und bestenfalls mit einem Zeitstempel pro Thema und Eintrag. Diese Notiz öffnet sich auch automatisch, wenn ich mein PKMS öffne.

Photo by Kyle Glenn on Unsplash

Am Ende des Tages, der Woche etc., gehe ich die Inhalte durch und kann hier meist schon mehr als die Hälfte der Inhalte einfach löschen. Der Rest wird in eigene Notizen verschoben. Fertig!

Ich nutze hier einfach eine Art digitalen “Schmierzettel”.

In einer Notiz lose sammeln. Bei Gelegenheit sortieren. Großzügig löschen.

Horses for Courses – das richtige System für die jeweilige Aufgabe

Mit Evernote war, auch mangels an Alternativen, alles in Evernote. Bookmarks, PDFs, Scans usw. Es war eher Dokumentenmanagement als Notiz-App. Der Grund dafür, war auch die hervorragende Texterkennung in Scans und Bildern, sowie die Volltextsuche in PDFs. Obsidian und andere PKMS können das zwar (über Plugins) teilweise auch, aber größtenteils nicht wirklich gut. Darum habe ich schon vor längerer Zeit die Anwendungen getrennt.

Photo by Los Muertos Crew on Pexels

Es ist einfach problematisch, wenn man Funktionen in ein System zwingen will, für das es eigentlich nicht gemacht und gedacht ist. Wie heißt es doch so schön:

“Wenn dein einziges Werkzeug ein Hammer ist, sieht die ganze Welt wie ein Nagel aus.”

Metallbauer, bauen alles aus Metall, auch wenn Holz oft sinnvoller wäre – und umgekehrt. Das kann man in fast allen Bereichen und besonders bei Software erkennen.

Dokumentenmanagement mit Paperless NGX

Rechnungen, Verträge, Scans etc. gehen direkt in Paperless NGX, da auf meinem Homeserver als Docker-Container läuft. Es ist die perfekte und kostenlose Lösung fürs effiziente Dokumentenmanagement. PDFs in Mail, wie z. B. Rechnungen, werden per Regel automatisch an Paperless weitergegeben und verarbeitet. Papierdokumente kommen in den Epson ES-580W Scanner, der neben mir auf dem Schreibtisch steht. Auch dieser scannt die Inhalte direkt zu Paperless.

Paperless NGX Dokumentenmanagement

Paperless lernt mit der Zeit von selbst, die Inhalte zu kategorisieren und zu sortieren. Die Texterkennung ist ausgezeichnet, und die Volltextsuche hat mich noch nie im Stich gelassen. Backups der Datenbank und Inhalte gehen jede Nacht (verschlüsselt) zu einer Hetzner Storage Box.

Bookmarks mit Readeck

Viele externe Dienste, die ich lange Zeit genutzt habe, laufen nun auf meinem Homeserver. Der Grund hierfür ist nicht nur die zunehmende Enshittification, sondern auch, dass ich wieder Herr über meine Daten sein möchte. Evernote hat gezeigt, wie schwierig Anwendungen mit Lock-in-Effekt sind. Solange man dabei bleibt, ist alles okay – aber wehe, man möchte zu einer anderen Anwendung wechseln.

Ein enttäuschendes Beispiel dazu war der Bookmark-Dienst Omnivore. Eine perfekte kostenlose Anwendung, schön designt und toll in Bedienung und Funktionsumfang – die ideale Alternative zu Pocket. Dann kündigten die Omnivore-Macher an, dass der Dienst in 2 Wochen für immer dichtmacht.

Auf meiner Suche nach einer selbst gehosteten Alternative, bin ich von Wallabag über Hoarder (zu instabil und komplex) zu Readeck gekommen. Readeck bot einen Omnivore-Importer an und damit sind die Bookmarks nun auf meinem eigenen Server.

Bookmarks in Readeck als Alternative zu Pocket

Auch für die Bookmarks benutze ich mein MDH-System mit keep-1w etc., denn nichts ist sinnloser, als tausende von Bookmarks, deren Ziel es nach einiger Zeit nicht mehr gibt.

Bookmarks gehören meiner Ansicht nach auch nicht in ein PKMS. Offenbar wird Omnivore weiterentwickelt und steht als Selbsthosting-Lösung zur Verfügung.

Joplin als bessere Alternative zu Obsidian

Mit Joplin habe ich einige Anläufe genommen. Zu verführerisch waren aber die unendlichen Möglichkeiten und Optionen von Obsidian. Im Gegensatz dazu bietet Joplin eine ausgewogenere Lösung:

Einfachheit und Zuverlässigkeit: Joplin kommt mit einem umfangreichen Funktionsumfang out-of-the-box, ohne dass man sich in endlosen Anpassungen verlieren muss. Einige wenige Plugins genügen, um den wesentlichen Funktionsumfang von Obsidian abzubilden.

Joplin

Flexibilität bei der Synchronisation: Joplin unterstützt eine Vielzahl von Synchronisationsdiensten, was die Flexibilität erhöht. Ich habe einen Obsidian-Server als Docker-Container laufen und die Synchronisation funktioniert über 3 Macs, 2 Windows-Rechner, Android und iOS problemlos.

Das war einer der Hauptgründe, die mich bei Obsidian gestört haben. Sofern man nur z. B. zwischen Apple-Geräten synchronisieren will, geht das per iCloud relativ problemlos. Auch zwischen Windows und Android z. B. per Syncthing oder Google Drive. Hat man jedoch macOS, Windows, Android und iOS am Start, wird es schwierig. Hier bleibt nur die (wirklich sehr gute) kostenpflichtige Sync-Lösung von Obsidian. Damit habe ich auch kein Problem damit, für einen Dienst zu bezahlen, aber ich möchte meine Daten einfach bei mir haben.

Das Remotely-Safe Plugin von Obsidian macht mit mehreren Geräten nur Probleme und scheidet damit als kostenlose Sync-Lösung für Obsidian aus. Eine kostenlose Sync-Lösung auf Basis einer CouchDB habe ich getestet, da sie wohl sehr nahe an der Obsidian-eigenen Sync-Lösung sein soll. Allerdings hatte ich jede Menge Synchronisationsfehler

Open-Source-Vorteil

Als Open-Source-Software profitiert Joplin von einer aktiven Entwicklergemeinschaft, die ständig an Verbesserungen arbeitet. Obsidian ist hingegen Closed Source. Sollten sich die Obsidian-Entwickler dazu entscheiden, das Produkt einzustellen oder zu verkaufen, muss man sich nach einem neuen Tool umsehen. Obsidian speichert alle Inhalte zwar in Markdown-Dateien im Dateisystem, allerdings stünden dann viele Features, die über die vielen Plugins bereitgestellt werden, im neuen System nicht mehr zur Verfügung. Zudem muss man für den kommerziellen Einsatz Lizenzen kaufen, sofern die Firma mehr als zwei Mitarbeiter hat.

Natürlich gibt es auch bei Joplin einige Plugins, die ich nutze. Darunter das E-Mail Plugin. Dies überwacht eine Mailadresse oder/und einen IMAP-Ordern auf dem Mailserver und importiert entsprechende Mails direkt in Joplin. Das war eine der Funktionen, die ich bei Evernote besonders geschätzt habe. Man kann auch eine Mail mit einer Notiz an sich selbst schicken und das Plugin erstellt daraus eine Notiz in Joplin.

In die gleiche Kerbe schlägt das Hotfolder Plugin. Man definiert einen Ordner auf dem Rechner, der dann als Sammelbox dient. Legt man z. B. eine Textdatei, PDF oder ein Bild in den Ordner, werden diese als Notizen in Joplin importiert. Auch das war eine Funktion, die Evernote bot.

Leider werden viele Plugins nicht mehr weiterentwickelt und das Ökosystem um Joplin ist nicht so groß, wie es bei Obsidian ist. Aber wie gesagt: Dieser Nachteil kann auch ein Vorteil sein.

Obsidian speichert alle Daten – im Gegensatz zu Obsidian – in einer lokalen Datenbank, man kann aber alle Inhalte als Markdown exportieren. Da es Joplin auch in einer Cli-Version gibt, kann man das sogar automatisieren. Überhaupt finde ich die Kommandozeilen-Option ziemlich charmant.

Joplin im Terminal

Der Web-Clipper von Joplin arbeitet sehr ordentlich und die Joplin Search Integration zeigt passende Inhalte aus Joplin neben einer Google Suche an. Auch das ist eine Funktion, die ich von Evernote kenne.

Die Browser-Erweiterung MemoInjo kann für schnelle Notizen mit festem Zielnotizbuch in Joplin genutzt werden.

Fazit

Während Obsidian für einige Nutzer, die Zeit und Freude an der Optimierung ihrer Systeme haben, durchaus geeignet sein mag, ist Joplin für die meisten Anwender die produktivere Wahl. Es bietet einen ausgewogenen Mix aus Funktionalität und Benutzerfreundlichkeit, ohne in die Falle des Produktivitätsparadoxons zu tappen.

Oder man wählt eine Kombination aus verschiedenen Tools, die jeweils spezifische Aufgaben erfüllen. Mit Joplin oder einer geeigneten Tool-Kombination kann man sich auf das Wesentliche konzentrieren – Gedanken festhalten und zu organisieren, anstatt endlos am Notiz-System zu feilen. Die Folge davon ist nämlich das Gefühl, nie fertig zu sein.