AI在可穿戴设备上对饮食评估的帮助
饮食评估可以帮助人们监督管理饮食,帮助人们科学摄入。近年来,智能手机和一些可穿戴设备可以达到一定的效果,但无论从便捷度、隐私性、数据负担上,都有一定的缺陷。AI图像分类不仅能有效解决这些问题,还可以在饮食数据库中检索出有关食物营养和能量含量的信息。
本文编译自公共健康营养近期的一篇同行审阅文章,由Thomas等学者共同执笔。
算力观点
人工智能技术可以从低像素、可穿戴相机中获取真实图像,从中自动检测食物。现阶段数据的准确度也十分高,同时这个技术减少了数据处理负担和隐私问题,对研究饮食评估等应用方面打下了坚实的基础。
AI食物图像分类
近年来,通过智能手机拍摄饮食照片被用作为一种新的饮食评估方式。每盘食物在食用前后都必须主动拍照,这既不方便又不实用。这种方法也可能因为拍照过程而破坏正常的饮食习惯。因此,很难用这种方法进行长期的饮食评估。
由于可穿戴相机能够连续、自动地记录佩戴者面前的场景,人们借此开发在饮食研究方面的潜在应用,如The SenseCAM (由微软开发),the ebutton (由原文作者开发)。研究表明,借助可穿戴的照相机,不仅可以评估食物摄入量,而且可以研究饮食环境以及行为。然而,这样的方法既没有减少图像审查的负担,也没有减少人工处理引起的隐私问题。因此,运用AI食物图像分类从采集图像中检测食物的想法应运而生。
两种数据集在食物图像分类上的验证
1. Food-5k
Food-5K是一个公开数据集。原作者使用这个数据集来比较研究算法与现有研究的性能。在这组数据中,图像是由智能手机和手持相机而不是可穿戴设备采集的,大多数食物图像只包含一种食物,该数据集的分类相对容易。
对评估集的分类结果显示在表1中,使用不同的相似性度量(jaccard和dice)。标签字典是n 761的训练数据集构建的。由表1可以看出,当阈值设置为3(即k=3)时,用骰子相似性度量,总体准确度、灵敏度、特异性和精密度分别为98.7%、98.2%、99.2%和99.2%。我们注意到,错误分类的图像大多是困难的情况,即使是人类执行任务也很困难。
表1 (图片来源:PHN)
2. ebutton数据集:食品/非食品数据集
从电子按钮(包含一个微型相机和一个运动传感器)中采集的图像中选择了3900幅真实图像。这些图像的分辨率为640像素×480像素。在匹兹堡大学进行的两项实地研究中,12名参与者获得了一半的图像,包括950张食物图像和1000张非食物图像。另一半主要由18名实验室成员和合作者在日常生活或旅行中获得。
在这个实验中,首先从随机选择的电子按钮图像中建立了一本标签字典,包括不同的日常活动。这些图片中只有很小的一部分包含与食物相关的内容,因此本标签字典中只包含一些与食物相关的标签。为了使标签字典更适合研究,原作者建立了一本1253个标签的字典。由于这两组数据中的图像都是由不同的人单独获取的,因此进行了交叉数据集评估。结果如图一所示。可以看出,阈值k是决定分类结果的一个重要因素。当k=2时,敏感性和特异性均较高。这两种情况的总体准确度测量值分别为91.5%和86.4%。
图一(图片来源:PHN)
最新活动更多
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024 智能家居出海论坛
-
精彩回顾立即查看>> 【在线会议】多物理场仿真助跑新能源汽车
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论