订阅
纠错
加入自媒体

AI在可穿戴设备上对饮食评估的帮助

2019-05-30 14:05
算力智库
关注

3. ebutton数据集:一周数据集

实验是通过一名志愿者在白天连续戴着一个电子按钮一周,记录下各种现实生活活动。首先,电子按钮对图像序列进行采样(10秒一次)。然后使用Picasa软件检测到人脸,并在发送给观察者之前筛选出可能存在隐私问题的图像,并按照上一个案例中描述的方式对图像进行注释。完成这些步骤后,获得29515张图像。这些图像最后由人工智能软件(Clarifai CNN)处理,为每个图像生成20个标签。

图二(图片来源:PHN)

原文作者定义了一个负担指数来表示总阳性图像的数量和所有图像的数量之间的比率。

阀值k是该算法中的一个可调参数。较小的k会导致跟高的灵敏度,但也会带来更高的负担。当k=1时,37.8%的总图像需要进一步检查,这对研究人员来说可能是太大的负担,尽管总灵敏度高达89.5%。当k=2时,总负荷降低到18%,敏感性为74.0%,特异性为87.0%。第1天和第6天的敏感性显著低于其他两天。在提取了所有的假阴性图像后,可以发现第一天的354个“饮料”图像中,有206个由于黑暗环境和小咖啡杯而被丢失,而在第六天的154个进食图像中,有78个由于过度曝光的图像和食物面积太小的图像而被丢失。

图三(图片来源:PHN)

可穿戴设备所采集数据挑战

实验结果表明,人工智能算法在food-5K和ebutton数据集上都取得了很好的效果。但是,Food-5K数据集的性能更好。这种差异可能有三个原因。

首先,如果在电子按钮佩戴者移动时记录图像,则无法避免图像模糊。在应用ebutton数据集应用算法上有约17.7%的图像是模糊的。

第二,在一些图片中,食物只覆盖了图片中很小的一部分,尤其是在饮酒的时候。在为期一周的数据集中,佩戴者有时在阅读或做电脑工作时吃喝,因此食物摆放在盘子位于图像的角落。

第三,与food-5K数据集相比,由于在ebutton的数据是由广角摄像机和被动图像捕获,因而图像中包含更多的对象。这使得检测任务更具挑战性。

<上一页  1  2  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    人工智能 猎头职位 更多
    扫码关注公众号
    OFweek人工智能网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号