作者Armuro (人是天生探索者)
看板HCI
標題Re: [分享] Text 2.0
時間Fri Feb 25 00:42:50 2011
※ 引述《Armuro (人是天生探索者)》之銘言:
剛好看到一系列關於eye tracking一系列的文章
讓我把這個資訊加在這個討論串吧
如果有對eye tracking如何應用在usability testing的人 可以看一下這個網址
http://www.simpleusability.com/our-news/tag/eye-tracking/
: ※ 引述《cac (暗微幽光)》之銘言:
: : 各位HCI的朋友們好,開版以來一直想發言贊助
: : 最近瀏覽一位搜集眼動研究資訊的blog,發現一個德國的研發機構開發的軟體
: : http://text20.net/node/4
: : 以上網頁中間有一款應與HCI密切關係的產品:搭配Tobii眼動儀的觸控式電腦
: : 將眼睛的運動變成與電腦互動的方式
: : 以心理學的角度我關心作業系統如何從使用者的眼動判斷使用者的意圖
: : 而HCI是如何看待這種互動方式呢?
: 根據我的了解eyetracking在HCI的一個很大用途是拿來作usability testing用
: 如果是做這用途 那麼系統並不需要即時根據眼動來判斷使用者的意圖
: 因為我們通常可以透過滑鼠游標加上眼球軌跡了解使用者的意圖
: 然而只透過這兩個還是會有點模稜兩可
: 所以在做testing的時候還會請使用者"think aloud"
: 這樣一來就可以在同一個時間點同時透過游標, 眼球軌跡, 語音來幫助測試者解讀
: 使用者的意圖還有動作
: 關於在usability testing裡面使用eye tracking, Nielsen自己是有寫一個report和
: 一本書
: 詳情可看這兒
: http://www.useit.com/eyetracking/methodology/
: http://www.useit.com/eyetracking/
: 除了usability testing之外 我相信eye-tracking也有其他的應用,不過這個應用
: 就看你的用途是什麼了. 例如我們lab最近有一個project是要判斷是不是一群人都在看著
: 同一個大螢幕,然後因而做出些反應
: 在這個情況下eye tracking或許就可以發揮一些功用
: 另外也有學者在做attention management. 例如一個使用者如何從不同螢幕間切換等等
: 然而, 這種sensor-based的application有一個很大的挑戰就是data是很模稜兩可的
: 加上有時候sensor會有誤差 導致程式詮釋錯誤 結果給使用者錯誤的feedback
: 因此有時候會用影像處理來替代, 因為一個畫面包含的資訊是比較多的 判斷更容易
: 可能我沒有注意或知道的不多 就我所知目前單純利用eye tracking的應用程式似乎比較
: 沒這麼多
: 大部分都還是為了usability testing的目的
: 希望這樣有解答到你部分問題
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 68.43.179.110