logo

Suletuxe.de
Linux - Nutzer
helfen
Linux - Nutzern

Willkommen, Gast. Bitte Login oder Registrieren.
26. November 2025, 21:49:55
Übersicht Hilfe Suche Login Registrieren

Amateurfunk Sulingen
 1   allgemeine Kategorie / Tutorials / Btrfs Speicherplatz belegung Grafisch darstellen  am: Heute um 09:14:43 
Begonnen von Sebastian | Letzter Eintrag von Sebastian
Einleitung:
Hallo Suletuxe,

ich habe mich wieder etwas tiefer mit dem Dateisystem Btrfs beschäftigt. Dieses Mal wollte ich herausfinden, wie mein System Daten und Dateien physisch auf dem Datenträger allociert. Ich wollte besser verstehen, wie ein Copy-on-Write (COW) Dateisystem im Laufe der Zeit fragmentiert und ob das für mich relevant wird, vor allem weil ich plane, Btrfs auch auf HDDs einzusetzen.

TLDR;
Ich habe mir per btrfs-heatmap die physische Belegung meines Laptops anzeigen lassen, um Fragmentation, Chunk-Verhalten und die Arbeitsweise von Btrfs über die Zeit zu beobachten. Zusätzlich habe ich mir einen systemd-Service samt Timer gebaut, der täglich eine Heatmap erzeugt.

Hauptteil:
Um mir wortwörtlich ein besseres Bild zu machen, habe ich mein Btrfs-Dateisystem mit dem Tool btrfs-heatmap grafisch darstellen lassen.

Bild Dateisystem Übersicht:

Bild Dateisystem Übersicht

Die obere Grafik wird über eine Hilbert-Kurve dargestellt. Diese Kurve ermöglicht es, lineare Daten platzsparend in einem Quadrat abzubilden. Die erste physische Adresse liegt unten links, schlängelt sich dann nach oben und endet unten rechts.
Zur Illustration:



Die Farbbedeutungen in der Übersicht:

  • Blau = Metadaten
  • Weiß = allocierter Speicher
  • Schwarz = unallocierter Speicher


Das dargestellte Bild zeigt Btrfs im SSD-Modus. Hier kümmert sich Btrfs weniger darum, Daten zusammenhängend abzulegen, da Fragmentation auf SSDs praktisch keine Rolle spielt. Besonders gut erkennbar ist, dass sich Metadaten am Anfang des Datenträgers sammeln. Dieser Bereich ist bereits so stark gefüllt, dass Btrfs etwa in der Mitte der Platte einen neuen Metadaten-Chunk allociert und begonnen hat, ihn zu beschreiben.

Man sieht außerdem im oberen linken Bereich größere unallocierte Lücken innerhalb bereits allocierten Regionen. Vermutlich hatte ich dort große Dateien abgelegt, die einen gesamten Chunk (ca. 1 GiB) vollständig gefüllt hatten und beim Löschen wieder komplett freigegeben wurden. Da Btrfs versucht, Chunks möglichst vollständig zu füllen, bevor neue angelegt werden, entstehen solche großen freien Bereiche.

Wichtig ist die Unterscheidung zwischen Chunk-Allocation und Datei-Fragmentation. Chunk-Lücken bedeuten nicht automatisch, dass Dateien fragmentiert sind. Innerhalb eines Chunks kann eine Datei dennoch an vielen Stellen verteilt liegen oder sich sogar über mehrere Chunks erstrecken. Für eine möglichst zusammenhängende Ablage sorgt btrfs filesystem defragment. Das habe ich in einem eigenen Beitrag genauer beschrieben:

BTRFS – balance vs defragment oder was sind diese Chunks und Extents für …

Zum Vergleich habe ich die Metadaten-Chunks vom Anfang und aus der Mitte der Platte im Detail aufgenommen:

Metadaten-Chunk 1
Metadaten-Chunk 2

Was die Farben im Detail bedeuten, steht in der btrfs-heatmap-Dokumentation

Gerade Metadaten-Chunks fragmentieren stark. Das ist logisch, da dort die meisten Änderungen stattfinden. Daten selbst bewegen sich bei einem COW-Dateisystem dagegen kaum – es werden eher neue Extents angehängt. Metadaten müssen jedoch ständig aktualisiert werden, um auf neue Daten zu zeigen.

Um die Entwicklung des Dateisystems über längere Zeit zu beobachten, habe ich mir einen systemd-Service mit Timer gebaut, der täglich eine neue Heatmap erstellt. Sobald ich genug Bilder gesammelt habe, werde ich daraus ein Daumenkino basteln, um Chunk-Bewegungen sichtbar zu machen.

Systemd Service:
Hier der systemd-Service (Template) für die tägliche Heatmap:

Code:

[Unit]
Description=Generiert eine Heatmap eines Btrfs Dateisytems unter / gemountet ist.

[Service]
Type=oneshot
WorkingDirectory=/home/%i/Bilder/btrfs-heatmap
Group=%i
ExecStart=/usr/bin/btrfs-heatmap /
ProtectSystem=strict
ReadWritePaths=/home/%i/Bilder/btrfs-heatmap

PrivateTmp=true
PrivateDevices=true
LockPersonality=true
ProtectClock=true
ProtectKernelLogs=true
ProtectKernelModules=true
ProtectControlGroups=true
RemoveIPC=true
RestrictSUIDSGID=true
RestrictRealtime=true
SystemCallFilter=@system-service @basic-io @file-system ~@privileged
IPAddressDeny=any
NoNewPrivileges=true
RestrictFileSystems=btrfs

Datei: /etc/systemd/system/btrfs-heatmap@.service

Code:

[Unit]
Description=Startet 1x am Tag den btrfs-heatmap@.service

[Timer]
OnCalendar=daily
Persistent=true

[Install]
WantedBy=timers.target

Datei: /etc/systemd/system/btrfs-heatmap@.timer

Zur Nutzung legt man im Heimatverzeichnis den Ordner $HOME/Bilder/btrfs-heatmap an. Dieser ist der einzige Pfad, in dem der Service schreiben darf. Anschließend aktiviert man den Timer. Hinter dem @-Zeichen im Servicenamen steht der Benutzername, damit systemd die Pfade korrekt ersetzt.

So wüdre der Timer aktiviert werden:

Code:

# Falls die zwei Dateien grade Frisch angelegt worden sind einmal Daemon neu starten
sudo systemctl daemon-reload
sudo systemctl enable --now btrfs-heatmap@sebastian.timer


Der erste lauf würde dann am nächsten Tag statfinden. Möchte man gleich ein Bild Anfertigen dann einmal bitte den Service direkt starten:

Code:

sudo systemctl start btrfs-heatmap@sebastian.service

Fazit:
Die Heatmaps geben ein sehr anschauliches Gefühl dafür, wie Btrfs intern mit Chunks, Metadaten und Daten arbeitet. Gerade langfristige Beobachtungen zeigen gut, welche Bereiche sich dynamisch verändern. Der tägliche systemd-Export erleichtert das enorm und erlaubt spannende Auswertungen über Wochen oder Monate.

Quellenangabe:


LG
Sebastian
 Antwort Antwort mit Zitat Über Antworten benachrichtigen

 2   allgemeine Kategorie / Allgemeine Diskussionen / Erfahrungsbericht/Lernprozess Tonaufnahme mit PipeWire  am: 22. November 2025, 11:54:04 
Begonnen von Sebastian | Letzter Eintrag von Sebastian
Einleitung:
Hallo Suletuxe,

ich erweitere aktuell mein Verständnis rund um digitale Tonaufnahmen. Ausgelöst wurde das Ganze, weil ich das Audiosignal meines Notebooks für ein anderes Gerät aufzeichnen wollte. Damit ich nicht blind eine Aufnahme starte, habe ich mich zuerst mit den Grundlagen beschäftigt. Mein Ziel war eine Aufnahme in 3x bis 4x facher Geschwindigkeit, die ich anschließend wieder auf Normaltempo dehnen kann.

TLDR; 
Ich erkläre hier kurz meinen Weg zu einer sauberen Aufnahme über PipeWire, warum ich 96 kHz als Sample Rate gewählt habe und wie ich das Signal direkt von der Quelle aufnehmen konnte.

Hauptteil:
Die Sample Rate beschreibt, wie oft pro Sekunde ein analoges Signal abgetastet wird. Für die Rekonstruktion einer Frequenz benötigt man mindestens das Doppelte ihrer höchsten vorkommenden Frequenz. Diese Regel nennt sich das Nyquist-Kriterium. Bei 48 kHz Sample Rate lassen sich daher Frequenzen bis etwa 24 kHz erfassen. Wird die Sample Rate zu niedrig gewählt, falten sich höhere Frequenzen in tiefere Bereiche zurück. Dieser Effekt ist als Aliasing bekannt.

Die Bittiefe bestimmt den Abstufungsgrad der Lautstärke (Amplitude). Je höher die Bittiefe, desto weniger Rundungsfehler entstehen. Diese Fehler machen sich als Quantisierungsrauschen bemerkbar. Da die menschliche Stimme grob im Bereich bis etwa 10 kHz liegt und typischerweise einen Dynamikumfang von ungefähr 50–70 dB hat, reicht eine Bittiefe von 16 Bit für Sprachaufnahmen üblicherweise aus.

Da ich meine Quelle mit vierfacher Geschwindigkeit abspielen wollte, erhöht sich die effektive Frequenzlage entsprechend. Um alle relevanten Frequenzen verlässlich abzudecken, muss ich die Aufnahme-Sample-Rate also ebenfalls erhöhen. Theoretisch würde eine Sample Rate von etwa 80 kHz reichen, praxisnah wählte ich 96 kHz als Standardwert mit etwas Luft nach oben.

Für die praktische Umsetzung musste ich verstehen, wie ich unter PipeWire das PCM-Signal direkt von der Quelle aufnehmen kann. Ein Node ist bei PipeWire ein Audiopunkt, der Daten liefert oder empfängt. Ein Sink nimmt Audio entgegen, ein Monitor-Port bietet Zugriff auf das Signal eines Sinks. Für meine Aufnahme wollte ich jedoch eine direkte Quelle (Node) und keinen gemischten Ausgang. Das ermöglicht eine stille Aufnahme, während das System weiterhin andere Sounds wiedergeben kann.

Die systemweite Sample Rate stellte ich über eine Drop-In-Konfiguration auf 96 kHz um. Anschließend nutzte ich pw-record aus dem Paket pipewire-audio, womit ich direkt die gewünschte Quelle abgreifen konnte.

Beispiele:
Code:

# pw-record mit direkter Quellenangabe
pw-record --target <Node-ID> --rate 96000 --channels 1 aufnahme.flac

# Beispielhafte Drop-In-Konfiguration für PipeWire (system.conf.d)
# /etc/pipewire/pipewire.conf.d/10-samplerate.conf
context.properties = {
    default.clock.rate = 96000
    default.clock.allowed-rates = [ 48000 96000 ]
}

Fazit:
Durch die moderne Informatonstechnologie ist es leicht möglich, sich auch in komplett neue Themenbereiche einzuarbeiten. Grundlagenwissen hilft enorm, um technische Entscheidungen bewusst zu treffen. Jetzt kann ich die Theorie in der Praxis weiter festigen und Erfahrungen sammeln. Sollte ich einzelne Aspekte falsch eingeordnet haben, freue ich mich über Hinweise, um mein mentales Modell weiter zu verfeinern.

Quellenangabe:


LG
Sebastian
 Antwort Antwort mit Zitat Über Antworten benachrichtigen

 3   allgemeine Kategorie / Installation, Einrichtung und Systempflege / yt-dlp benötigt eine externe JavaScript Runtime für den Youtube Support  am: 14. November 2025, 19:08:12 
Begonnen von Sebastian | Letzter Eintrag von Sebastian
Einleitung:
Bei einem Systemupdate ist mir eine neue optionale Abhängigkeit von yt-dlp aufgefallen. Die Einführung von yt-dlp-ejs hat einen technischen Hintergrund, der für viele Anwender relevant ist – insbesondere für Nutzer, die weiterhin zuverlässig YouTube-Videos extrahieren möchten.

TLDR;
Ab Version 2025.11.12 benötigt yt-dlp eine externe JavaScript-Runtime wie Deno für nicht-veralteten YouTube-Support. Das Paket yt-dlp-ejs bindet diese Runtime ein und sollte installiert werden, wenn YouTube-Unterstützung erforderlich ist.

Hauptteil:
Mit der Version 2025.11.12 hat das Projekt yt-dlp wesentliche Änderungen an der internen Verarbeitung der YouTube-Extraktion vorgenommen. Deno wird dabei als bevorzugte Laufzeitumgebung eingesetzt, da sie moderne JavaScript-Features vollständig unterstützt.

Für Arch-Linux-Nutzer wurde hierzu das Paket yt-dlp-ejs ergänzt. Dieses Paket fungiert als Schnittstelle zwischen yt-dlp und der externen Runtime. Bei Installation von yt-dlp-ejs wird Deno automatisch als Abhängigkeit eingerichtet. Erst damit steht der aktuelle, nicht-deprecated YouTube-Support zur Verfügung.

Für Nutzer, die regelmäßig YouTube-Inhalte extrahieren, ist die Nachinstallation daher sinnvoll. Zusätzlich empfiehlt sich die Installation als Abhängigkeit (--asdeps), damit die Paketverwaltung sauber bleibt und beim Entfernen von yt-dlp auch die zugehörigen Komponenten automatisch entfernt werden, sofern sie nicht anderweitig benötigt werden.

Beispiele:
Installation von yt-dlp-ejs als Abhängigkeit:
Code:

pacman -S --asdeps yt-dlp-ejs

Fazit:
Die Einführung einer externen JavaScript-Runtime in yt-dlp ist technisch nachvollziehbar und zukunftsorientiert. Für die meisten Anwender, die YouTube-Downloads nutzen, ist die Installation von yt-dlp-ejs empfehlenswert, da nur damit die vollständige Funktionalität erhalten bleibt.

Quellenangabe:


LG
Sebastian
 Antwort Antwort mit Zitat Über Antworten benachrichtigen

 4   allgemeine Kategorie / Allgemeine Diskussionen / SquashFS Tools 4.7.3 bis zu 1500x schneller und mit stdout Support  am: 09. November 2025, 07:12:03 
Begonnen von Sebastian | Letzter Eintrag von Sebastian
Einleitung:
Mit der Veröffentlichung von SquashFS Tools 4.7.3 hat sich einiges getan. Neben massiven Performance-Optimierungen bringt die neue Version auch praktische Erweiterungen für moderne Workflows mit. Besonders interessant ist die Möglichkeit, ein komplettes SquashFS-Dateisystem direkt an STDOUT zu streamen – also ohne temporäre Datei.

TLDR;
SquashFS 4.7.3 steigert die Leistung beim Lesen von Sparse Files um bis zu den Faktor 1500 und erlaubt nun, Dateisysteme direkt in eine Pipeline zu schreiben. Die Streaming-Funktion hat jedoch Einschränkungen und erfordert bei Bedarf eine Nachbearbeitung mit -fix.

Hauptteil:
SquashFS Tools 4.7.3 bringt eine deutliche Beschleunigung bei der Verarbeitung von Sparse Files. Durch die optimierte Nutzung der SEEK_DATA-Operation kann das Dateisystem Löcher in Dateien effizient überspringen. Dadurch ergibt sich je nach Struktur der Daten ein Leistungszuwachs von bis zu 240×. Wenn mehrere Datenblöcke als zusammenhängende Sparse-Bereiche erkannt werden, erhöht sich der Effekt auf bis zu 1500× im Vergleich zu früheren Versionen.

Neben diesen Optimierungen wurde auch die Funktionalität von mksquashfs erweitert. Das Tool kann nun Dateisysteme direkt an STDOUT streamen. Das ist vor allem in automatisierten oder speichersparenden Szenarien nützlich, beispielsweise für Backups oder Systemabbilder, die direkt über eine Pipeline übertragen werden sollen.

Einige technische Einschränkungen sind jedoch zu beachten:

  • Beim Streamen ist keine Duplikaterkennung möglich.
  • Der Superblock (Header) wird am Ende des Dateisystems geschrieben.
  • Solche Abbilder können daher nicht direkt vom Kernel gemountet werden.
  • unsquashfs kann diese Streams jedoch problemlos lesen.


Wer das gestreamte Abbild später mounten möchte, kann dies mit der neuen -fix-Option korrigieren. Sie verschiebt den Header an den Anfang der Datei und macht das Dateisystem wieder kernelkompatibel.

Beispiele:
Ein praktisches Beispiel für das neue Streaming-Feature:
Code:

# SquashFS-Dateisystem direkt nach STDOUT streamen und über ssh auf einem anderen Computer Speichern
mksquashfs directory - -stream | ssh phillip@192.168.178.1 dd of=image.sqfs

# Header nach vorn verschieben, um das Image mountbar zu machen
mksquashfs -fix image.sqfs

Fazit:
SquashFS Tools 4.7.3 zeigt, dass selbst ein ausgereiftes Dateisystem noch deutlich optimiert werden kann. Die Leistungssteigerung bei Sparse Files ist beeindruckend, und die neue Streaming-Funktion eröffnet flexible Anwendungsmöglichkeiten für fortgeschrittene Workflows.

Für meine Zwecke in der Langzeitarchivierung bleibt SquashFS weiterhin das bevorzugte Format. Die starke Kompression, eingebaute Deduplication und sequentielle Durchsuchbarkeit machen es klassischen Archivformaten wie tar, zip oder 7z weiterhin überlegen – vor allem, wenn es um Effizienz und Nachhaltigkeit geht.

Quellenangabe:


LG
Sebastian
 Antwort Antwort mit Zitat Über Antworten benachrichtigen

 5   allgemeine Kategorie / Installation, Einrichtung und Systempflege / Re:dracut optimierungen bei verwendung eines COW Dateisystems  am: 27. Oktober 2025, 18:31:19 
Begonnen von Sebastian | Letzter Eintrag von Sebastian
Ich habe meinen Einleitungspost um folgenden Inhalt ergänzt:

Zitat:
Ich möchte noch folgende Ergänzung anmerken.

Nach längerer Verwendung der Option enhanced_cpio="yes" ist mir bei einer Neuinstallation meines Notebooks aufgefallen, dass ohne diese Option das Initramfs spürbar schneller geladen wird und somit der Bootvorgang insgesamt kürzer ausfällt.

Es gilt hierbei also folgendes abzuwägen:
Möchte man eine schnellere Erzeugung sowie eine optimale Deduplizierung des Initramfs, so ist enhanced_cpio zu bevorzugen – allerdings auf Kosten der Bootgeschwindigkeit.

Der Grund dafür liegt in der Arbeitsweise moderner CPUs. Diese können komprimierte Daten sehr schnell dekomprimieren, sodass der Flaschenhals meist bei der I/O-Leistung des Speichermediums liegt. Wird enhanced_cpio korrekt eingesetzt, fallen die erzeugten Initramfs-Dateien größer aus. Dadurch dauert das vollständige Einlesen vom Datenträger länger als bei stark komprimierten Varianten. Hinzu kommt, dass durch die erhöhte Anzahl an Extents (zusammenhängenden Datenblöcken) der Dateisystem-Overhead leicht zunimmt, was zusätzlich etwas Zeit kostet.

Der Vorteil des verbesserten Extent-Sharings durch enhanced_cpio zeigt sich daher vor allem in Umgebungen, in denen mehrere Initramfs für unterschiedliche Kernel vorgehalten werden. Diese können sich durch Reflink-Deduplizierung Speicherplatz teilen. Ebenso ist enhanced_cpio dann interessant, wenn die schnelle Erstellung eines Initramfs wichtiger ist als ein schnellerer Bootvorgang.

Daher lässt sich zusammenfassen:

  • Bei mehreren Initramfs lohnt sich enhanced_cpio, da es Speicherplatz spart und die Erstellung beschleunigt.
  • Bei wenigen oder nur einem Initramfs sollte man darauf verzichten, sofern Bootgeschwindigkeit im Vordergrund steht – es sei denn, die Generierungsgeschwindigkeit ist entscheidend.
 Antwort Antwort mit Zitat Über Antworten benachrichtigen

 6   allgemeine Kategorie / Allgemeine Diskussionen / BTRFS langsam im kommen?  am: 23. Oktober 2025, 14:22:39 
Begonnen von Sebastian | Letzter Eintrag von Sebastian
Mir fällt auf, dass Btrfs in letzter Zeit zunehmend auch bei Nutzern älterer Linux-Distributionen wie Debian an Bedeutung gewinnt. Das Thema scheint breiter diskutiert zu werden, was sich unter anderem daran zeigt, dass auf Plattformen wie gnulinux.ch mittlerweile Artikel erscheinen, die detailliert erklären, wie man ein Debian-System direkt auf Btrfs-Subvolumes installieren kann.

Dass die Debian-Community und verwandte Projekte diesem Ansatz nun zunehmend Beachtung schenken, zeigt, dass Btrfs langsam aus der Nische der experimentellen Systeme herauswächst. Distributionen wie openSUSE oder Fedora nutzen es bereits produktiv, und die technische Basis hat sich dort seit Jahren bewährt. Es bleibt spannend zu beobachten, ob Debian künftig ähnliche Integrationsmechanismen wie automatische Subvolume-Strukturen oder Snapshot-Unterstützung in seinen Installer aufnehmen wird.



LG
Sebastian
 Antwort Antwort mit Zitat Über Antworten benachrichtigen

 7   allgemeine Kategorie / Allgemeine Diskussionen / Re:DDoS-Angriffe auf alle Arch-Server  am: 19. Oktober 2025, 16:54:57 
Begonnen von Andreas | Letzter Eintrag von Andreas
Ich verwende diese Videos schon lange. Sie sind wirklich sehr gut gemacht, auch meine Schüler mögen sie!

LG
Andreas
 Antwort Antwort mit Zitat Über Antworten benachrichtigen

 8   allgemeine Kategorie / Allgemeine Diskussionen / Microsoft 365 Education – Microsoft möchte keine verantworttung tragen  am: 19. Oktober 2025, 11:39:40 
Begonnen von Sebastian | Letzter Eintrag von Sebastian
Ich habe auf Kuketz Blog folgenden Artkel gelesen:

Kommentar: Microsoft 365 Education – Auch in Deutschland will Microsoft nicht verantwortlich sein

Da steht im groben folgendes drin:
Zitat:
Die österreichische Datenschutzbehörde hat entschieden, dass Microsoft 365 Education Schüler*innen unrechtmäßig trackt und Daten ohne Rechtsgrundlage verarbeitet. Die »Education«-Version ist technisch identisch mit dem normalen MS365 und sendet trotz deaktivierter Optionen ständig Telemetrie an Microsoft. Schulen tragen offiziell die Verantwortung, haben aber keine Kontrolle über die Datenverarbeitung. Microsoft behält die technische Macht und nutzt Daten teils für eigene Zwecke. Das gleiche Problem betrifft auch Deutschland – dort fehlt jedoch der politische Wille, die Abhängigkeit von Microsoft zu beenden.

Der aktuelle Fall aus Österreich zeigt wieder deutlich, in welcher gefährlichen Abhängigkeit sich Schulen gegenüber Microsoft befinden. Die Datenschutzbehörde hat bestätigt, dass Microsoft 365 Education Schülerdaten rechtswidrig verarbeitet. Das angebliche „Education“-Angebot ist nichts anderes als das gewöhnliche MS365 – mitsamt aller Tracking- und Telemetrie-Funktionen.

Microsoft behält die volle technische Kontrolle, während die Schulen die rechtliche Verantwortung tragen, ohne die Datenverarbeitung wirklich nachvollziehen zu können. Genau diese Schieflage macht das Ganze so bedenklich. 

Ich frage mich, warum Schulen freiwillig Verantwortung für Produkte übernehmen, deren Funktionsweise sie weder steuern noch kontrollieren können – zumal längst freie und datenschutzfreundliche Alternativen existieren.

LG
Sebastian
 Antwort Antwort mit Zitat Über Antworten benachrichtigen

 9   allgemeine Kategorie / Allgemeine Diskussionen / Re:DDoS-Angriffe auf alle Arch-Server  am: 18. Oktober 2025, 16:53:53 
Begonnen von Andreas | Letzter Eintrag von Sebastian
Zitat von: Andreas am 29. August 2025, 15:03:54
Allerdings dreht sich bei mir wieder das Räderwerk im Gehirn:
Mit genügend gefaketen Webinhalten kann man AIs verdummen und zu Falschaussagen bringen - genauso wie Menschen. Man braucht nur eine andere AI, die diese falschen Inhalte erstellen. Es wird irgendwann demnächst einen "Krieg der AIs" geben - so gut wie ohne menschliche Eingriffe...

Hallo Andreas,

deine vorahnung bezüglich Verdummung und Falschaussagen isr nun soweit vorgedrungen das darüber auch auf Bildungskanälen berichtet wird.





Das Video eigenet sich auch sehr gut für Bildunszwecke in der Schule, da es aufmerksamkeit gut binden kann.

LG
Sebastian
 Antwort Antwort mit Zitat Über Antworten benachrichtigen

 10   allgemeine Kategorie / Basiswissen / IT-Kompetenz (betriebssystemunabhängig) / Re:Basiskompetenz – Knowledge Distillation  am: 18. Oktober 2025, 12:24:20 
Begonnen von Sebastian | Letzter Eintrag von Sebastian
Ich finde, der schnellste Weg, um festzustellen, ob man etwas wirklich verstanden hat, ist, es anderen zu erklären. Durch das Feedback der anderen kann man sehr gut reflektieren, wo noch Wissenslücken bestehen und gezielt nachbessern.

Zudem lernt man durch die Fragen anderer, besser zu filtern und zu priorisieren. So erkennt man, worauf bei einem Thema der Schwerpunkt liegt und welche Aspekte die meisten Rückfragen hervorrufen.

Nicht zuletzt wächst durch die Zusammenarbeit das Wissen aller Beteiligten, was grundsätzlich eine sehr positive Wirkung hat.

Um ein konkretes Beispiel zu zeigen, wie mein Lernprozess mithilfe von Logseq aussieht, habe ich aus meinem Material zum Thema „Fotosammlung in AVIFs konvertieren“, das ich auf Wikipedia und YouTube gesammelt habe, einen Screenshot eines Whiteboards in Logseq erstellt. Dort lässt sich gut erkennen, wie flexibel man Material in Logseq sammeln und verarbeiten kann.

https://drive.proton.me/urls/3VTGSKTPZM#RhRQQtVmSwaS

Obwohl man es auf dem Screenshot nicht direkt sieht, ist es wichtig zu erwähnen: Die Stichpunkte liegen nicht alle untereinander auf derselben Seite, sondern teilweise auf eigenen Seiten, um die Organisation zu verbessern. Sie werden nur an den passenden Stellen eingebettet. So bleibt jede Information atomar, und unnötige Duplikate werden vermieden. Das ist der große Vorteil von Themen- und Wissensverknüpfungen.

Das bedeutet nicht, dass ich schon alles vollständig verstanden habe, was ich notiert habe. Sobald ich ein Thema intensiver bearbeite (z. B. ICC-Profile), werde ich weitere Notizen hinzufügen und mein Verständnis vertiefen. Das Tolle an Logseq ist, dass man eine neue Seite zu einem Thema ganz einfach im Schreibfluss anlegen kann, indem man einen Begriff in eckige Klammern setzt. Auf dieser neuen Seite kann man dann weiterarbeiten und sie überall dort referenzieren, wo die Information benötigt wird.

LG
Sebastian
 Antwort Antwort mit Zitat Über Antworten benachrichtigen

Zurück zur Foren-Übersicht.


Login mit Username, Passwort und Session Länge

 Es wird die Verwendung "Blink"-basierter Browser und mindestens 1024x768 Pixel Bildschirmauflösung
für die beste Darstellung empfohlen
 
freie Software für freie Menschen!
Powered by MySQL Powered by PHP Diskussions- und Newsboard der Linux Interessen Gruppe Suletuxe | Powered by YaBB SE
© 2001-2004, YaBB SE Dev Team. All Rights Reserved.
- modified by Andreas Richter (DF8OE)
Valid XHTML 1.0! Valid CSS!