Como o AwareFlow funciona

Análise no dispositivo. Classificadores treinados individualmente. Avisos privados. Sem gravações de áudio.

O Pipeline

O AwareFlow funciona inteiramente no seu iPhone: ouvir → classificar → alertar → aprender. Cada etapa acontece no dispositivo. Nada sai do seu telefone.

1. Análise no dispositivo

O AwareFlow utiliza o microfone do seu iPhone para analisar pequenos fragmentos contínuos de áudio em tempo real. A aplicação deteta padrões sonoros específicos — como fungar ou pigarrear — utilizando os frameworks nativos de áudio da Apple. O áudio bruto é processado imediatamente e descartado. Nunca é gravado, armazenado ou enviado para qualquer lugar.

2. Classificadores treinados individualmente

Cada hábito tem o seu próprio modelo dedicado de aprendizagem automática — um classificador binário treinado para distinguir exatamente aquele som do ruído de fundo. Esta abordagem de um modelo por hábito oferece uma precisão significativamente melhor do que classificar tudo com um único modelo. Os classificadores funcionam no framework Core ML da Apple com inferência exclusivamente em CPU.

Atualmente disponível: Deteção de fungadelas, deteção de pigarreio.
Em breve: Clique de caneta, mastigação ruidosa, suspiros, batida de pé e mais.

3. Contexto e emoção

Quando um hábito é detetado, o AwareFlow regista silenciosamente o contexto: hora do dia, volume ambiente, densidade da agenda e condições meteorológicas. Opcionalmente, pode registar como se sente — um toque rápido que demora menos de três segundos. Com o tempo, este contexto transforma momentos isolados em padrões significativos.

4. Insights suaves

O AwareFlow mostra-lhe padrões calmos e de alto nível: quando os hábitos ocorrem, em torno de que condições se concentram e como mudam ao longo do tempo. Em vez de números brutos, vê descrições contextuais — "mais ativo do que o habitual" ou "mais calmo do que ontem." O objetivo é consciência sobre a qual pode agir, não números que criam pressão.

O que faz a diferença