Jak działa AwareFlow

Analiza na urządzeniu. Indywidualnie trenowane klasyfikatory. Prywatne powiadomienia. Żadnych nagrań audio.

Pipeline

AwareFlow działa w całości na Twoim iPhonie: nasłuchiwanie → klasyfikacja → powiadomienie → nauka. Każdy krok odbywa się na urządzeniu. Nic nie opuszcza Twojego telefonu.

1. Analiza na urządzeniu

AwareFlow wykorzystuje mikrofon Twojego iPhone'a do analizy krótkich, ciągłych fragmentów audio w czasie rzeczywistym. Aplikacja rozpoznaje określone wzorce dźwiękowe — takie jak pociąganie nosem lub chrząkanie — przy użyciu natywnych frameworków audio Apple. Surowe audio jest natychmiast przetwarzane i odrzucane. Nigdy nie jest nagrywane, przechowywane ani wysyłane gdziekolwiek.

2. Indywidualnie trenowane klasyfikatory

Każdy nawyk ma swój własny dedykowany model uczenia maszynowego — klasyfikator binarny wytrenowany do odróżniania dokładnie tego dźwięku od szumów tła. Podejście „jeden model na nawyk" zapewnia znacznie lepszą dokładność niż klasyfikowanie wszystkiego jednym modelem. Klasyfikatory działają na frameworku Core ML od Apple z inferencją wyłącznie na CPU.

Obecnie dostępne: Wykrywanie pociągania nosem, wykrywanie chrząkania.
Wkrótce: Klikanie długopisem, głośne żucie, wzdychanie, tupanie nogą i więcej.

3. Kontekst i emocje

Gdy nawyk zostanie wykryty, AwareFlow po cichu zapisuje kontekst: porę dnia, głośność otoczenia, zagęszczenie kalendarza i warunki pogodowe. Opcjonalnie możesz zapisać, jak się czujesz — szybkie dotknięcie, które zajmuje mniej niż trzy sekundy. Z czasem ten kontekst przekształca pojedyncze momenty w znaczące wzorce.

4. Delikatne wglądy

AwareFlow pokazuje Ci spokojne, ogólne wzorce: kiedy nawyki występują, wokół jakich warunków się skupiają i jak zmieniają się w czasie. Zamiast surowych liczb widzisz kontekstowe opisy — „bardziej aktywne niż zwykle" lub „spokojniejsze niż wczoraj." Celem jest świadomość, na podstawie której możesz działać, a nie liczby, które tworzą presję.

Co stanowi różnicę