欢迎访问一起赢论文辅导网
机械论文
当前位置:首页 > 机械论文
基于群智感知服务的眼动数据众包计算
来源:一起赢论文网     日期:2018-06-24     浏览数:440     【 字体:

 计算机集成制造系统 第23卷在此基础上,通过移动互联网可以进一步将视觉注意行为的研究对象从传统上的个人拓展到大规模用户群体,有助于研究用户群体中的普遍性视觉注意机制,推动社交计算、协同计算等领域的相关应用研究。为此,本文基于群智感知(crowd sensing)机制[3],利用移动终端(如智能手机等)的用户作为眼动行为感知的基本单元,通过移动互联网进行群体众包协作,并结合上下文感知服务实现大规模、低成本、高效率的感知任务分发与执行,进而实现高精度的眼动数据模拟计算。1 相关研究选择性视觉注意机制使人类在视觉场景中能快速定位最显著的视觉对象,因此可以利用该机制获取用户的注视点位置等眼动数据[2,4]。在个人电脑上,鼠标移动数据和眼动仪记录的用户眼动数据非常相似[5]。另 面,众 包[6-8](crowdsourcing)将任务发布到互联网平台,通过互联网上的大量用户解决传统计算机无法单独处理的问题,然后整合大量用户的任务结果来迅速得到问题的解决方案。因此,相关研究人员开始利用众包方法获取用户在观察可视媒体时的视觉注意行为信息,以实现人工操作驱动的眼动数据计算,并在保持计算精度的同时显著提高效率和降低成本。例如,Xu等[9]使用商业众包平台发布任务,利用网络摄像头获取大量用户的注视点数据,在此基础上建立数据集并绘制注视点热区图,既方便数据收集又降低了成本。Aznar等[10]设计了 包系统,该系统首先显示一幅完整的图片,然后显示该图片可能包含的许多碎小图片,并要求用户选择真正属于原图的碎小图片,系统则根据用户选择的准确率来推理这些碎片的视觉显著性(即越易于被正确选择的碎小图片在原图中的视觉显著性越高),最后以众包的方式获取大规模用户的反馈信息,进而绘制出原图的视觉显著图。但是该方法存在一个缺点,即用户在观看小图片时可能会遗忘原图上的注视点位置,其所选择的小图片可能不是用户真实的注视点位置。Rudoy等[11]要求用户回忆视频片段中的画面,并输入编码来标注眼动注视点所在的位置,通过众包方式集成多用户的标注信息,进而得到该视频片段的注视点热区图,结果表明这些热区图与通过眼动仪真正获得的热区图保持一致。进一步,Kim 等[12]在手机上基于众包机制开展了用户在图片理解过程中的视觉注意行为研究,让一组用户观察给定图片的原图,用眼动仪记录用户的注视点数据;让另一组用户观察经过模糊处理后的该图片,并让用户在图片上点击所关注的区域,这些区域被点击后将变得清晰。结果表明,两组用户表现出的视觉注意分布非常相近。上述研究表明,利用众包的方法进行人工回忆和标注,可以不再依赖外部设备来获取与真实眼动数据高度一致的眼动数据。然而,如何在移动设备上设计更加有效和便捷的众包机制来获取这些眼动数据,还没有开展深入研究,一些问题还有待解决,主要问题包括:①移动设备上的人工操作受限。由于移动设备屏幕较小、输入操作不便,复杂的标注操作(如输入编码[11])将显著降低效率。② 移动交互环境中,众包任务的分发和完成受限,无法保证用户及时接受任务,使任务分发效率较低。另一方面,在移动终端执行众包任务时,因为外在因素(时间、地点、周围环境等)的干扰,用户往往会暂停甚至中断任务执行过程,无法长时间、高质量地完成任务,所以不能给用户分发一些需要花费较长时间的连续工作,或需要非常专注才能完成的任务。为此,本文基于弱意图和碎片化特征建立众包任务的管理机制。弱意图 是 指 基 于 上 下 文 感 知 服 务 (context-awareservice)[13],以劝导、推荐的方式让用户乐于接受任务和自觉完成任务,例如,基于地点的上下文感知服务,在众包平台发布任务时添加任务的位置信息,使用户可以根据自己当前所处的位置(如家里、办公室等)认领距离自己较近的任务[14],或者众包平台实时监测移动设备用户的位置,主动向用户推荐与其位置距离最近的相关任务,从而最大化用户的参与度、提高任务的执行效率[15]。碎片化是指任务完成所需的时间较短,用户可以在一些闲暇的时段或场合迅速完成。类似地,通过上下文感知服务,也能较好地实现众包任务的碎片化分发。2 关键技术2.1 基于群智感知服务的众包方法框架本文提出的注视点回忆方法基于众包机制,具体而言,发布者发布任务并回收任务的结果,任务接受用户(也称工人(worker))接受任务并上传结果。为了降低结果误差、获得与真实眼动注视点高度相近的数据,使用基于上下文感知服务的任务推荐机制,来提高任务完成结果的准确率,具体方法框架如0114 程时伟 等:基于群智感知服务的眼动数据众包计算图1所示。该方法包括3个层次:①上下文感知层。通过移动设备上的物理传感器和外部的虚拟传感器等,实现上下文数据的采集和传输。②上下文处理层。结合用户信息、任务历史记录以及相关的上下文知识库,进行上下文的语义解释,实现基于上下文感知服务的推荐算法。③众包应用层。发布者通过众包机制发布注视点回忆任务,将这些任务构成一个任务集合后,基于上下文感知服务的推荐算法在任务集合中进行任务匹配,并将匹配得到的相关任务推荐给工人;工人完成任务后提交结果,供发布者查看。2.2 基于位置上下文感知服务的众包任务推荐在上下文感知服务机制驱动的普适计算环境中,用户与计算机不断发生交互行为,系统获取用户的 上 下 文 信 息,进 而 给 用 户 提 供 具 体 的 交 互 服务[16]。根据用户的上下文信息向用户推荐任务,有利于提高任务推荐的精确度。目前,基于位置的推荐是主动为用户提供服务的主要技术之一[17]。本文基于位置上下文感知服务技术,实时获取用户的位置和 当 前 所 处 的 环 境 信 息 (如 周 围 的 店 铺 等 信息),然后结合用户的背景信息(如性别、年龄等)和用户接受任务的历史记录,向用户推荐一个相应的注 视 点 回 忆 任 务。 具 体 分 为 如 下 2 类 情 况 进 行处理:(1)用 户 之 前 没 有 接 受 任 何 任 务   首 先 进 行定位,同时由近及远地搜索与位置相关的任务(例如为附近店铺的广告设计方案进行视觉评估),然后遍历任务搜索结果,在给定位置范围内,根据距离最近 原 则 和 用 户 基 本 信 息 进 行 任 务 推 荐。 例如,一个25 岁 的 年 轻 女 性 手 机 用 户,她 当 前 所 处的位置附近 200 m 内 有 化 妆 品 店 铺 时,认 为 她 会对化妆品 感 兴 趣,因 此 向 她 推 荐 一 个 化 妆 品 广 告的视觉评估任务。(2)用户之前有接受任务 根据用户完成任务的历史记录和位置信息进行任务推荐。例如,如果在历史记录中服装广告视觉评估任务的数量大于化妆品广告视觉评估任务的数量,且差值大于给定阈值,同时搜索到附近存在服装店,则给用户推荐一个服装广告的视觉评估任务;反之,则给用户推荐一个化妆品广告的视觉评估任务。如果在历史记录中服装和化妆品广告视觉评估任务的数量差小于给定阈值,则根据附近的店铺信息随机向用户推荐其中的一种任务。根据上述情况设计具体算法,关键步骤如下:步骤1 读取一次用户当前的位置p,同时以搜索半径r(本文取200m)由近及远地搜索用户附近的待接收任务 T1,T2,…,Tn(如服装店或化妆品店的广告视觉评 估),存放在 列 表nearList中。如 果nearList不为空,则执行下一步,否则转步骤6。步骤2 根据nearList中任务所包含的位置信息,获取用户在这些位置完成相应任务的历史记录列表 H,其中各个不同任务的数量为 S1,S2,…,Sm(按从小到大排序)。步骤3 如果 H 为空(即所有 Si=0,i=1,2,…,m),则生成随机数ram1(取值范围[1,n]),向用户推荐任务 Tram1,然后转步骤7;如果 H 不为空,则执行下一步。步骤4  如果 Sm-Sm-1>k(本文取 阈值k=2),则在列表nearList中搜索与Sm对应的任务Tj(j=1,2,…,n),并向用户推荐,转步骤7;如果Sm-Sm-1≤k,则执行下一步。步骤5 令 m=m-1。如果 m≥3,则转步骤4;否则,生成随机数ram2(取值范围[1,n]),向用户推荐任务 Tram2,转步骤7。步骤 6  向 用 户返回提示 信 息 (如“未 找 到 结果”),不推荐任何任务。步骤7 推荐结束。在应用上述算法进行实际应用程序开发时,为了防止移动设备消耗大量的计算资源和电源,同时为了避免对用户进行过度推荐、造成用户体验降低,在完成一次推荐后,推荐过程将暂停 一 段时间(如10min),然后继续进行推荐。0115计算机集成制造系统 第23卷2.3 基于速度上下文感知服务的众包任务推荐任务的难度根据需要回忆的注视点数量进行划分:只回忆第一个注视点(first fixation)和只回忆最后一个注视点(last fixation)的任务可以看作 较 简单的任务,回忆所有注视点(all fixations)的任务可以看作较难的任务。对于不同难度的任务,本文提出基于速度上下文感知服务的任务推荐技术,首先实时 计 算 用 户 当 前 的 平 均 速 度 (全 球 定 位 系 统(Global Position System,GPS)结合加速度传感器计算),进而判断其运动状态;然后将这一上下文信息和用户的基本信息结合,给用户推荐一个难度恰当的任务。例如,对于只回忆第一个注视点和只回忆最后一个注视点这些相对简单的任务,可以在用户步行时进行推荐;对于回忆所有注视点这种相对较难的任务,只在用户静止时向其推荐。根据上述思路设计具体算法,关键步骤如下:步骤1 初始化计数器i=0。步骤2 每隔t时间(本文取10s)读取一次用户当前的位置,计算前后两次位置pi和pi+1之间的距离di(pi,pi+1),求得速度si=di(pi,pi+1)/t。步骤3 计数器i=i+1,如果i≥q(本文取阈值q=5),则执行下一步,否则转步骤2。步骤4 求平均速度s′=(d1+d2+…+dq)/q为用户当前的运动速度。步骤5 如果s′<l(本文取阈值l=2m/s),则向用户推荐较难的任务(如回忆所有注视点);否则,向用户推荐简单的任务(回忆第一个注视点或回忆最后一个注视点)。步骤6 推荐完成。类似地,在应用上述算法进行实际应用程序开发时,为了防止移动设备消耗大量的计算资源和电源,同时为了避免对用户进行过度推荐、造成用户体验降低,在完成一次推荐后,推荐过程将暂停一段时间(如10min),然后继续进行推荐。3 应用系统与用户实验3.1 应用系统为了验证本文提出的用户注视点回忆方法的可行性与有效性,设计开发了基于 Android智能手机平台的用户注视点回忆众包系统。该系统架构采用服务器/客户端模式,其中用户基本信息、任务、结果等数据保存在服务器端;同时服务器还对任务结果进行处理,生成眼动数据热区图。客户端运行在 Android智能手机上,支持任务发布者和任务接受者(工人)两类用户。任务发布者能够管理任务、发布任务和查看任务结果等;工人能够查看任务、接受任务、完成任务等。图2所示为系统的主要框架和工作流程。任务发布者登录系统后,可以发布注视点回忆任务,设置任务内容、任务位置等信息;然后通过地图或列表的形式查看己发布的任务信息,以及任务的完成情况(如完成人数)和结果等。工人用户登录系统后,可以查看现有任务(以地图或者列表形式),还可以使用关键词搜索感兴趣的任务。工人可以接受一个任务并完成该任务,任务的完成结果会上传到 服 务器端 进行保存。进一步地,为了进行任务推荐,系统在后台实时记录工人的位置(如每隔10s记录1次 GPS数据)。系统计算工人在连续多个经纬度位置之间的速度并求出平均值,将该平均值作为该用户当前的移动速度,然后根据前文提出的任务推荐算法主动向用户推送任务信息,并以消息通知的形式显示在用户界面的任务栏,以便用户接受并完成该任务。此外,工人还可以查看自己完成的任务历史信息。图3所示为任务发布者登录后的 主 要功能界面:图 3a为左滑菜 单栏界面,任务发布者可以发布任务、查看自己已发布的任务;图3b为任务发布界面,任务发布者可以填写任务的基本信息;图 3c以列表形式显示已发布的 任务;图3d显示了任务详情,点击“查看结果”按钮即可查看该任务获取的注视点数据热区图。图4所 示 为 工 人 登 录 后 的 主 要 功 能 界 面:图4a为左滑菜 单 栏 界 面,工 人 可 以 查 看 任 务 和 已 完成任务的历史记录等;图4b显示了任务 的具体内容,点击“接受”按钮就会 跳 转到任务 执 行界面;图4c为任务执 行 界 面,系 统 会 显 示 任 务 对 应 的 测 试材料(如需要评 估 的 广 告 图 片),工 人 则 根 据 任 务要求完成回忆与 标 注 任 务,然 后 点 击 “完 成”图 标提交任务;图4d以列表形式显示了工人 已完成任务的历史记录。011628;修订日期:2016-08-28。Received 28June 2016;accepted 28Aug.2016.基金项目:国家重点研发计划资助项目(2016YFB1001403);国家自然科学基金资助项目(61272308,61602411);浙江省自然科学基金资助项目(LY15F020030);浙江省重点研发计划资助项目(2015C01029);杭州市重大科技专项资助项目(20152011A03)。Foundation items:Project supported by the National Key Research & Development Program ,China(No.2016YFB1001403),the National Natural Sci-ence Foundation,China(No.61272308,61602411),the Zhejiang Provincial Natural Science Foundation,China(No.LY15F020030),the Key Research & Development Plan of Zhejiang Province,China(No.2015C01029),and the Hangzhou Primary Science & Tech-nology Program,China(No.20152011A03).基于群智感知服务的眼动数据众包计算程时伟,蔡红刚,曹 斌(浙江工业大学 计算机科学与技术学院,浙江 杭州 310023)摘 要:为了提高移动设备上的眼动跟踪精度和效率、降低硬件成本,提出基于注视点回忆的眼动数据计算方法来代替移动设备上的眼动跟踪。应用众包技术在群智环境下实现用户注视点回忆任务的发布,基于上下文感知服务技术进行注视点回忆任务的推荐,以提高回忆注视点精度。面向广告视觉评估设计开发了注视点回忆众包应用系统。用户测试结果表明,回忆注视点数据与眼动仪获取的真实眼动数据有较高的一致性,验证了该方法的可行性和有效性。关键词:眼动跟踪;注视点回忆;视觉注意;众包;上下文感知服务;人机交互中图分类号:TP391   文献标识码:ACrowd sensing service based eye movement data computing with crowdsourcingCHENG Shiwei,CAI Honggang,CAO Bin(School of Computer Science and Technology,Zhejiang University of Technology,Hangzhou 310023,China)Abstract:To improve the accuracy and efficiency of eye tracking on mobile device and to reduce the cost,agaze recallmethod as a complementation for eye movement data computing on mobile device was proposed.In this method,crowdsourcing technique was applied to distribute gaze recall tasks in crowd sensing environment,and task recom-mendation algorithm based on context-aware service was used to improve the gaze recall accuracy.A prototype sys-tem for gaze recall on mobile device was implemented,and the result of user testing showed that the recalled gazedata were very similar to gaze data from real eye tracker,which could validate the feasibility and effect of the pro-posed method.Keywords:eye tracking;gaze recall;visual attention;crowdsourcing;context-aware service;human-computer interaction0 引言眼动跟踪技术用于分析视觉注意行为,在用户界面设计评估、视线驱动的人机交互等领域得到了具体应用[1]。随着智能手机 等移动终端的 快 速 发展,在移动设备上实现眼动跟踪并进行视觉注意行为的感知和分析逐渐成为研究热点。然而,受移动设备自身软硬件性能的限制(如手机自带的摄像头分辨率相对较低),目前还无法满足眼动跟踪过程中对图像处理的高精度和高效率要求,通常需要外部硬件设备的支持,不仅提高了开发成本,也增加了使用难 度,极 大 地 降 低 了 其 实 际 应 用 价 值。 为 此,Cheng等[2]提出一种与设备无关的、基于用户回忆和自我报告(self-reporting)来记录用户注视点(fix-ation)位置、个数、顺序等眼动数据的方法,以分析视觉注意行为。 程时伟 等:基于群智感知服务的眼动数据众包计算3.2 用户实验与结果下面利用设计与开发的系统进行用户实验,并对实验结果进行分析。实验共招募40名用户,其中男性30名、女性10名,年龄在23~35岁之间(平均年龄26.3岁)。用户随机分成2组,一组用户(5人)观看图片时用眼动仪(MultiGaze眼动跟踪系统[18],精度0.9)记录其眼动跟踪数据;另一组用户(35人)在自己的移动设备上安装本文开发的系统,在日常生活中使用该系统,并完成系统中发布的任务(使用和前一组用户相同的图片完成视觉评估任务)。在实验时,用户首先登录系统,然后在系统中接受注视点回忆任务(自己搜索查找的任务或系统推荐的任务)。任务执行流程如图5所示。对于一个具体任务,用户首先查看该任务的具体内容,然后点击“接受”按钮接受任务,此时系统会显示任务对应的测试图片。测试图片在显示5s后会消失,紧接着显示一张深灰色的图片(即遮罩图片)来消除用户的视觉暂留,这张深灰色图片显示1s后消失;然后在相同位置上显示一张浅灰色图片(即点击图片),用户在该浅灰色图片上根据任务要求回忆并点击自己在观察测试图片时的注视点位置;最后点击“完成”图标,提交任务结果。为了验证上下文对用户注视点回忆结果精确度0117计算机集成制造系统 第23卷的影响,实验中分别对用户位置和速度上下文进行了不同设置,如表1和表2所示,具体确定了用户距离最近的化妆品店或者服装店的距离,以及用户静止、步行、慢跑、坐电动车等实验条件。然后系统根据这些不同的上下文给用户推荐相应的注视点回忆任务。表1 基于位置上下文感知服务的众包任务推荐示例向工人推荐的任务 位置信息任务完成时间/s在广告上回忆第一个注视点 距离服装店30m 11在广告上回忆最后一个注视点 距离化妆品店156m 12注:任务完成时间包括从任务接受到任务完成整个流程。表2 基于速度上下文感知服务的众包任务推荐示例向工人推荐的任务速度信息/(m·s-1)任务完成时间/s在化妆品广告上回忆所有注视点(标注3个) 0(静止) 30在服装广告上回忆所有注视点(标注3个) 0(静止) 28在服装广告上回忆所有注视点(标注3个) 1(步行) 33在服装广告上回忆第一个注视点 3(慢跑) 14在化妆品广告上回忆最后一个注视点 8(坐电动车) 15注:任务完成时间包括从任务接受到任务完成整个流程。表1和表2说明,基于位置和速度上下文感知服务的任务推荐技术,都能快速和有效的向工人推荐众包任务、进行注视点回忆。另一方面,工人也能及时完成任务并返回任务结果,例如表2中,在速度较快时向工人推荐难度较小的任务,能够显著缩短任务完成时间。这些结果进一步验证了本文任务推荐技术的可行性与有效性。进一步将两组用户获得的结果(即回忆数据和真实眼动数据)进行比较分析,判断用户注视点回忆方法的可行性。本文还将系统中使用推荐算法得到的结果和不使用推荐算法得到的结果进行了比较分析,进而验证使用推荐算法对用户完成任务结果的影响和结果精确度的提高情况。图6所示为使用本文方法在一张测试图片上得到的回忆注视点数据热区图[19],该图片对应的任务是让用 户 回 忆 并 点 击 自 己 的 第 一 个 注 视 点 (firstfixation)[2];图7所示为使用眼动仪得到的真实注视点数据热区图,记录的 是用 户 的第一个注视点。其中红色圆圈区域为注视点比较集中的区域。图8a和图8b分别为图6中回忆注视点数据和图 7 中 真 实 注 视 点 数 据 的 概 率 密 度 分 布 函 数图[20-21]。本文使用核密度 估计方法估计 注 视 点 的概率密度函数,其中核函数使用高斯核。核密度估计是一种 非 参 数 检 验 方 法,用 于 估 计 未 知 的 密 度函数[20]。为了量化图6中的回忆注视点数据和图7中的真实注视点数据之间的差异,用下式计算两者之间的卡方距离[2,22]:D2=∑ni=1(P1(i)-P2(i))2P1(i)+P2(i)。式中 P1(i)和 P2(i)分别表示实验图片上单个像素点i处所对应的回忆注视点和真实注视点位置分布的概率密度函数。图7和图6中计算出的卡方距离D2=0.257,可见使用本文方法测试得到的结果和使用眼动仪得到的结果相关性较高,说明本文方法具有实际应用的可行性,可以代替眼动仪获取眼动数据。0118 程时伟 等:基于群智感知服务的眼动数据众包计算进一步针对相同的任务和测试图片,比较不同的上下文服务感知技术向工人推荐众包任务获取的眼动数据结果。图9所示为使用眼动仪获得的眼动数据热区图(注视点集中在红色区域),图10所示为基于位置上下文感知服务的任务推荐技术得到的注视点回忆数据热区图,图11所示为基于速度上下文感知服务的任务推荐技术得到的回忆注视点数据热区图。具体任务是让用户回忆自己的所有注视点(allfixations)[2],并在图片上点击标注其中的3个注视点。各图中的高亮区 域是 回 忆注视点比较集中 的区域。群智感知环境下,有时无法通过移动设备本身的传感器记录用户在移动设备上进行的一些微型交互行为。在这种情况下,可以采取用户体验采样方法(Experience Sampling Method,ESM)[23]来理解移动计算用户的体验和行为。ESM 主要包含对用户体验的随机和半随机采样,通常会在某一时刻或者每隔一段时间主动给移动用户推送一条消息,让用户完成一些简单的任务,而不需要获取用户的位置等 任 何 上 下 文 信 息[24]。 在 实 验 中,系 统 基 于ESM,每天在某一时刻随机向用户推荐一个任务,用户接受任务并上传任务完成结果。图12所示为基于 ESM 得到的回忆注视点数据热区图,其中高亮区域是回忆注视点比较集中的区域。图13a~图13d分别为图9~图12对应的注视点数据的概率密度分布函数图。0119计算机集成制造系统 第23卷图14所示为根据卡方距离公式计算的图13中不同方法获得的结果概率密度函数,与眼动仪获得结果概率密度函数之间的距离。从图14中可以看出,使用基于位置上下文感知的任务推荐算法、基于速度上下文感知的任务推荐算法获取的回忆注视点数据的准确度较高,比较接近眼动仪获取的真实眼动数据;基于 ESM 任务推荐方法得到的结果则 准 确度较 低。这可能 是由于ESM 方法不获取用户任何上下文信息而进行任务推荐时,所推荐的任务可能不是用户感兴趣的任务,导致用户完成任务的质量下降,例如随意地在图片上点击回忆的注视点,与真实的注视点差异较大。此外,进一步分析了众包实验数据的个体差异性。由于参与众包实验的用户在性别和兴趣等方面的差异,注视点回忆数据也存在一定的差异性。如图15a所示,在进行这张广告图片的视觉评估时,大部分男性用户的注视点(蓝色圆圈区域)都集中在模特的脸部和衣服上的红花部位,而大部分女性用户的注视点(红色圆圈区域)集中在模特的手持手机、背包等部位。1110第5期 程时伟 等:基于群智感知服务的眼动数据众包计算类似地,在图15b中,大部分男性用户的注视点(蓝色圆圈区域)集中在模特的眼睛部位,而大部分女性用户的注视点(红色圆圈区域)集中在化妆品品牌标志部位;此外,还有用户的注视点(黄色圆圈区域)分布在其他部位,这是由于系统推荐给他们的任务可能并不是他们感兴趣的,这些用户会随意地点击几个点作为他们的注视点。4 结束语本文基于移动设备支持的群智感知服务机制,提出利用众包平台进行注视点回忆,从而获取眼动注视点近似数据的方法。设计开发了基于 Android智能手机平台的用户注视点回忆众包系统。通过用户实验表明,该方法能有效获取注视点数据,并通过基于上下文感知服务的任务推荐算法进一步提高数据精度,与眼动仪记录的实际眼动注视点数据具有较高的一致性,可有效用于视觉设计评估,例如用户在观察广告时的视觉焦点区域,是否包含广告所要强调的产品及其相关信息。下一步将优化推荐算法来提高用户回忆点击的精度,并结合有效的交互手段提高众包任务的完成质量,进一步减少噪声数据,提高该方法在实际应用中的有效性。参考文献:[1] ZHAO Xincan,ZUO Hongfu,REN Yongjun.A review of eyetracker and eye tracking techniques[J].Computer Engineeringand Applications,2006,42(12):118-120(in Chinese).[赵 新灿,左洪福,任勇军.眼动仪与视线跟踪技术综述[J].计算机工程与应用,2006,42(12):118-120.][2] CHENG S,SUN Z,MA X,et al.Social eye tracking:gaze re-call with online crowds[C]//Proceedings of the 18th ACMConference on Computer Supported Cooperative Work & So-cial Computing. New York, N.Y.,USA:ACM,2015:454-463.[3] LIU Yunhao.Crowd and participatory sensing computation[J].Communications of the China Computer Federation,2012,8(10):38-41(in Chinese).[刘云浩.群智感 知 计 算 [J].中国计算机学会通讯,2012,8(10):38-41.][4] BLACKWELL A F,JANSEN A R,MARRIOTT K.Re-stricted focus viewer:a tool for tracking visual attention[J].Lecture Notes in Computer Science,2000,35(1):575-588.[5] CHEN M C,ANDERSON J R,SOHN M H.What can amouse cursor tell us more?correlation of eye/mouse move-ments on web browsing[C]//Proceedings of the 19th AnnualACM Conference on Human Factors in Computing Systems.New York,N.Y.,USA:ACM,2001:281-282.[6] FENG Jianhong,LI Guoliang,FENG Jianhua.A survey oncrowdsourcing[J].Chinese Journal of Computers,2015,38(9):1713-1726(in Chinese).[冯剑红,李国良,冯建华.众包技术研究综述[J].计算机学报,2015,38(9):1713-1726.][7] GEIGER D,ROSEMANN M,FIELT E.Crowdsourcing in-formation systems:a systems theory perspective[C]//Proceed-ings of the 22nd Australasian Conference on Information Sys-tems.Atlanta,Ga.,USA:Association for Information Sys-tems,2011.[8] ESTELLES-AROLAS E.Towards an integrated crowdsourc-ing definition[J].Journal of Information Science,2012,38(2):189-200.[9] XU Pingmei,EHINGER K A,ZHANG Yinda,et al.Turker-gaze:crowdsourcing saliency with webcam based eye tracking[EB/OL].[2016-05-03].https://arxiv.org/abs/1504.06755.[10] AZNAR F,PUJOL M,RIZO R.Generating saliency mapsusing human based computation agents[C]//Proceedings ofthe 13th Conference of the Spanish Association for ArtificialIntelligence. Berlin, Germany: Springer-Verlag, 2009:252-260.[11] RUDOY D,DAN B G,SHECHTMAN E,et al.Crowdsour-cing gaze data collection[J].Encyclopedic Dictionary of Poly-mers,2012,194(2):367-377.[12] KIM N W,BYLINSKII Z,BORKIN M A,et al.A crowds-ourced alternative to eye-tracking for visualization under-standing[C]//Proceedings of the 33rd Annual ACM Confer-ence on Human Factors in Computing Systems.New York,N.Y.,USA:ACM,2015:1349-1354.[13] GU T,PUNG H K,ZHANG D.A service-oriented middle-ware for building context-aware services[J].Journal of Net-working Computing Application,2005,28(1):1-18.[14] ALT F,SHIRAZI A S,SCHMIDT A,et al.Location-basedcrowdsourcing:extending crowdsourcing to the real world[C]//Proceedings of the 6th Nordic Conference on Human-Computer Interaction:Extending Boundaries.New York,N.Y.,USA:ACM,2010:13-22.[15] TAMILIN A,CARRERAS I,SSEBAGGALA E,et al.Con-text-aware mobile crowdsourcing[C]//Proceedings of the2012 ACM Conference on Ubiquitous Computing. NewYork,N.Y.,USA:ACM,2012:717-720.[16] WANG Licai,MENG Xiangwu,ZHANG Yujie.Context-a-ware recommender systems[J].Journal of Software,2012,23(1):1-20(in Chinese).[王立才,孟祥武,张玉洁.上下文感知推荐系统[J].软件学报,2012,23(1):1-20.][17] LIU Shudong,MENG Xiangwu.Recommender systems inlocation-based social networks[J].Chinese Journal of Com-puters,2015,38(2):322-336(in Chinese).[刘树栋,孟祥武.基于位置的社会化网络推荐系统[J].计算机学报,2015,38(2):322-336.][18] CHENG Shiwei,SUN Zhiqiang,LU Yuhua.An eye tracking1111

[返回]
上一篇:交通路口监控视频跨视域多目标跟踪的可视化
下一篇:基于信息熵的RSA硬件时间隐通道信息泄露量化研究