Google推出Move Mirror趣味AI网站,可在浏览器中根据人体动作即时搜图
从AlphaGo到猜画小歌,Google一再向我们展示着人工智能的神通广大,前段时间Google又推出一个新的AI实验网站 Move Mirror 。
Move Mirror是一个人工智能实验,通过移动让你以一种有趣的新方式来探索图像,当你在摄像头前移动时,Move Mirror会通过你的实时动作判定你的人体姿势,与数百张在世界各地做类似姿势的人的图像相匹配,筛选出与你的姿势最相近的图像。你甚至可以捕获做一个GIF图,与你的朋友分享它。
大概的运作原理是:它会利用PoseNet来镜像图像中人体姿势的关节对应位置,分析后从有80000张素材的数据图库中对比出与你姿势最接近的图像,而这个过程仅仅需要15ms。并且搜索结果会即时比对随时变更。
这这要归功于TensorFlow.js,这是一个允许你在浏览器中运行机器学习项目的Javascript库。通过将PoseNet移植到TensorFlow.js,任何拥有配备好网络摄像头的PC或手机的人都可以在Web浏览器中体验和使用这项技术。关于隐私,当PoseNet由tensorflow.js驱动时,这就意味着姿态估计直接发生在浏览器中,你的图像不会被储存或发送到服务器,所有的图像识别都在本地进行。所以你可以放心去做一些看着很搞笑或有点蠢的动作。
上段说到PoseNet这是一个由剑桥大学开发的姿态估计开源工具,允许任何Web开发人员完全在浏览器中进行基于身体的交互,不需要特殊的相机或C++/Python技能,这是非常先进的姿势估计模型,即使是一些模糊,低分辨率,黑白的图片,也可以从图像数据中提供高度准确的姿势数据。PoseNet可以通过简单易获取的Web API降低了姿态估计的入门门槛。
姿态匹配和搜索是Move Mirror面临的难点。
PoseNet在面部和身体上检测17个姿势关键点。每个关键点都有三个重要的数据:(x,y)坐标位置(表示PoseNet发现该关键点的输入图像中的像素位置)和一个置信度得分(PoseNet对猜测的正确程度有多大)。
最新活动更多
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024 智能家居出海论坛
-
精彩回顾立即查看>> 【在线会议】多物理场仿真助跑新能源汽车
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论