Hoe AwareFlow werkt

Analyse op het apparaat. Individueel getrainde classificatoren. Privémeldingen. Geen audio-opnames.

De Pipeline

AwareFlow draait volledig op je iPhone: luisteren → classificeren → attenderen → leren. Elke stap vindt plaats op het apparaat. Niets verlaat je telefoon.

1. Analyse op het apparaat

AwareFlow gebruikt de microfoon van je iPhone om korte, doorlopende audiofragmenten in realtime te analyseren. De app herkent specifieke geluidspatronen — zoals snuiven of keel schrapen — met behulp van Apple's native audio-frameworks. Ruwe audio wordt onmiddellijk verwerkt en weggegooid. Het wordt nooit opgenomen, opgeslagen of ergens naartoe gestuurd.

2. Individueel getrainde classificatoren

Elke gewoonte heeft zijn eigen toegewijd machine learning-model — een binaire classificator die is getraind om precies dat geluid te onderscheiden van achtergrondgeluiden. Deze één-model-per-gewoonte-aanpak levert een aanzienlijk betere nauwkeurigheid dan alles met één enkel model classificeren. De classificatoren draaien op Apple's Core ML-framework met pure CPU-inferentie.

Momenteel beschikbaar: Snuifherkenning, keel schrapen-herkenning.
Binnenkort: Pen klikken, luid kauwen, zuchten, voet wippen en meer.

3. Context en emotie

Wanneer een gewoonte wordt gedetecteerd, noteert AwareFlow stilletjes de context: tijdstip van de dag, omgevingsvolume, agendadichtheid en weersomstandigheden. Je kunt optioneel vastleggen hoe je je voelt — een snelle tik die minder dan drie seconden duurt. Na verloop van tijd verandert deze context losse momenten in betekenisvolle patronen.

4. Zachte inzichten

AwareFlow toont je rustige, overkoepelende patronen: wanneer gewoonten optreden, rond welke omstandigheden ze zich concentreren en hoe ze in de loop van de tijd veranderen. In plaats van ruwe cijfers zie je contextuele beschrijvingen — "actiever dan gebruikelijk" of "rustiger dan gisteren." Het doel is bewustzijn waar je naar kunt handelen, niet cijfers die druk creëren.

Wat het verschil maakt