AI在可穿戴设备上对饮食评估的帮助
3. ebutton数据集:一周数据集
实验是通过一名志愿者在白天连续戴着一个电子按钮一周,记录下各种现实生活活动。首先,电子按钮对图像序列进行采样(10秒一次)。然后使用Picasa软件检测到人脸,并在发送给观察者之前筛选出可能存在隐私问题的图像,并按照上一个案例中描述的方式对图像进行注释。完成这些步骤后,获得29515张图像。这些图像最后由人工智能软件(Clarifai CNN)处理,为每个图像生成20个标签。
图二(图片来源:PHN)
原文作者定义了一个负担指数来表示总阳性图像的数量和所有图像的数量之间的比率。
阀值k是该算法中的一个可调参数。较小的k会导致跟高的灵敏度,但也会带来更高的负担。当k=1时,37.8%的总图像需要进一步检查,这对研究人员来说可能是太大的负担,尽管总灵敏度高达89.5%。当k=2时,总负荷降低到18%,敏感性为74.0%,特异性为87.0%。第1天和第6天的敏感性显著低于其他两天。在提取了所有的假阴性图像后,可以发现第一天的354个“饮料”图像中,有206个由于黑暗环境和小咖啡杯而被丢失,而在第六天的154个进食图像中,有78个由于过度曝光的图像和食物面积太小的图像而被丢失。
图三(图片来源:PHN)
可穿戴设备所采集数据挑战
实验结果表明,人工智能算法在food-5K和ebutton数据集上都取得了很好的效果。但是,Food-5K数据集的性能更好。这种差异可能有三个原因。
首先,如果在电子按钮佩戴者移动时记录图像,则无法避免图像模糊。在应用ebutton数据集应用算法上有约17.7%的图像是模糊的。
第二,在一些图片中,食物只覆盖了图片中很小的一部分,尤其是在饮酒的时候。在为期一周的数据集中,佩戴者有时在阅读或做电脑工作时吃喝,因此食物摆放在盘子位于图像的角落。
第三,与food-5K数据集相比,由于在ebutton的数据是由广角摄像机和被动图像捕获,因而图像中包含更多的对象。这使得检测任务更具挑战性。

最新活动更多
-
3月27日立即报名>> 【工程师系列】汽车电子技术在线大会
-
即日-4.22立即报名>> 【在线会议】汽车腐蚀及防护的多物理场仿真
-
4月23日立即报名>> 【在线会议】研华嵌入式核心优势,以Edge AI驱动机器视觉升级
-
4月25日立即报名>> 【线下论坛】新唐科技2025新品发布会
-
在线会议观看回放>>> AI加速卡中村田的技术创新与趋势探讨
-
即日-5.15立即报名>>> 【在线会议】安森美Hyperlux™ ID系列引领iToF技术革新
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论