Wie AwareFlow funktioniert

Analyse auf dem Gerät. Individuell trainierte Klassifikatoren. Private Hinweise. Keine Audioaufnahmen.

Die Pipeline

AwareFlow läuft vollständig auf deinem iPhone: zuhören → klassifizieren → hinweisen → lernen. Jeder Schritt findet auf dem Gerät statt. Nichts verlässt dein Telefon.

1. Analyse auf dem Gerät

AwareFlow nutzt das Mikrofon deines iPhones, um kurze, fortlaufende Audio-Ausschnitte in Echtzeit zu analysieren. Die App erkennt bestimmte Klangmuster — wie Schniefen oder Räuspern — mithilfe nativer Audio-Frameworks von Apple. Rohaudio wird sofort verarbeitet und verworfen. Es wird niemals aufgezeichnet, gespeichert oder irgendwohin gesendet.

2. Individuell trainierte Klassifikatoren

Jede Gewohnheit hat ihr eigenes dediziertes Machine-Learning-Modell — einen binären Klassifikator, der darauf trainiert ist, genau diesen Klang von Hintergrundgeräuschen zu unterscheiden. Dieser Ein-Modell-pro-Gewohnheit-Ansatz liefert eine deutlich bessere Genauigkeit, als alles mit einem einzigen Modell zu klassifizieren. Die Klassifikatoren laufen auf Apples Core ML Framework mit reiner CPU-Inferenz.

Derzeit verfügbar: Schnieferkennung, Räusper-Erkennung.
Demnächst: Kugelschreiber-Klicken, lautes Kauen, Seufzen, Fußwippen und mehr.

3. Kontext und Emotion

Wenn eine Gewohnheit erkannt wird, notiert AwareFlow still den Kontext: Tageszeit, Umgebungslautstärke, Terminplan-Dichte und Wetterbedingungen. Du kannst optional festhalten, wie du dich fühlst — ein schneller Tipp, der weniger als drei Sekunden dauert. Im Laufe der Zeit verwandelt dieser Kontext einzelne Momente in bedeutungsvolle Muster.

4. Sanfte Einblicke

AwareFlow zeigt dir ruhige, übergeordnete Muster: wann Gewohnheiten auftreten, um welche Bedingungen sie sich häufen und wie sie sich im Laufe der Zeit verändern. Statt roher Zahlen siehst du kontextuelle Einordnungen — „aktiver als üblich" oder „ruhiger als gestern." Das Ziel ist Bewusstsein, nach dem du handeln kannst, nicht Zahlen, die Druck erzeugen.

Was macht den Unterschied