1. 设备端聆听
AwareFlow 使用 iPhone 的麦克风实时分析短小的、滚动的音频片段。应用监测特定的声音模式 — 如抽鼻子或清嗓子 — 使用 Apple 的原生音频框架。原始音频被即时处理后丢弃。 它永远不会被录制、保存或发送到任何地方。
设备端聆听。定制训练的分类器。私密提醒。从不录音。
设备端聆听。定制训练的分类器。私密提醒。从不录音。
处理流程
AwareFlow 完全在你的 iPhone 上运行:聆听 → 分类 → 提醒 → 学习。 每一步都在设备上完成。没有任何数据离开你的手机。
AwareFlow 使用 iPhone 的麦克风实时分析短小的、滚动的音频片段。应用监测特定的声音模式 — 如抽鼻子或清嗓子 — 使用 Apple 的原生音频框架。原始音频被即时处理后丢弃。 它永远不会被录制、保存或发送到任何地方。
每个习惯都有自己专用的机器学习模型 — 一个经过训练的二元分类器,能够将该特定声音与背景噪音区分开来。 这种每个习惯一个模型的方法比试图用单一模型分类所有内容提供了显著更高的准确率。 分类器在 Apple 的 Core ML 框架上运行,仅使用 CPU 推理。
目前可用:抽鼻子检测、清嗓子检测。
即将推出:按笔、大声咀嚼、叹气、跺脚等。
当检测到习惯时,AwareFlow 会悄悄记录情境:一天中的时间、环境噪音水平、日程密度和天气状况。 你可以选择记录自己的感受 — 一次快速点击,不到三秒钟。 随着时间推移,这些情境将孤立的瞬间转化为有意义的模式。
AwareFlow 向你展示平静的、高层次的模式:习惯倾向于何时出现、围绕哪些条件聚集、 以及如何随时间变化。你看到的不是原始数字,而是情境化的描述 — "比平时更活跃"或"比昨天更安静"。目标是你可以据以行动的觉察,而不是制造压力的数字。