今年(2014)的美國消費性電子展(CES)裡,Intel發表了一個內嵌式(Embedded)3D攝影鏡頭,這是一款可以感應物體深度(Depth),並可以將物體掃描成3D模型的攝影鏡頭。

這個名為RealSense3D影鏡頭,是世界首款整合了3D深度感應器與全1080p彩色鏡頭模組的一種裝置,可以感測物體的深度。與先前Microsoft所推出的Kinect不同的是,RealSense3D影鏡頭不僅可以用來感知手指的動作,實現高度精確的手勢識別,還可以用來進行臉部特徵辨識,從而理解人的動作和情感;同時它可以分辨前景與背景,並支援對互動式擴增實境(Interactive Augmented Reality)、3D掃描、…等。

我個人非常看好RealSense的一些應用,茲舉例說明:它與Skype搭配使用時,因為它可以感測使用者的深度,所以可以即時進行去背處理,只呈現打電話的人,而不呈現其身後的背景。通過這項功能,人們將擁有更多選擇——可以改變背景呈現方式;對於擴增實境(Augmented Reality)的應用,如果增加深度的辨識,則可以提升操作的精確度與趣味性,而且與3D顯示器搭配可以呈現3D立體效果;另外,它可以透過3D掃描而建立3D模型的功能,對苦於缺乏平價3D掃描器支援的3D Printer的應用而言,不啻為大利多。

-JG (www.i-art.com.tw)

 


Intel RealSense: Embedded 3D camera, software for notebooks, tablets

消息來源:http://liliputing.com/2014/01/intel-realsense-embedded-3d-camera-software-for-notebooks-tablets.html
       期:2014/01/06


Intel wants to move computing beyond the mouse, keyboard, and touchscreen and into 3D. The company has developed a tiny 3D camera that’s designed for tablets, notebooks and other products, and companies including Lenovo, Dell, and Asus are starting to show devices featuring the camera.

It’s just the first sense of what Intel is calling its RealSense technology which are designed to move beyond thinking of computers as devices with 2D displays that you need special tools to interact with.

rs cam_03

In a demo, the company showed how the RealSense camera can detect depth perception by differentiating between foreground and background objects in a camera app — but eventually it could also allow you to interact with a computer using 3D gestures while playing games or running other apps.

At its most basic level, the RealSense camera feels a bit like the motion controls offered by Leap Motion, with support for gesture recognition. For instance you can wave your hands and fingers in front of the camera to launch apps, pause a video, or perform other actions.

rs cam_02

But Intel’s technology goes further with support for facial recognition and face tracking, among other things. For instance, the company showed a demo of a user changing the camera angles in Google Street View simply by looking in different directions.

Intel is also partnering with 3D printing company 3D Systems to allow 3D cameras and 3D printers to work together to help you create physical objects using images captured with a RealSense camera.

The company also showed off a demo of the RealSense camera working with Skype to identify a face and allow you to change the background without losing track of your face (although there are clearly some digital artifacts). It’s kind of like having a green screen… but without a green screen.

no green

While the first RealSense product from Intel is the embedded camera, what the company is really pushing are next-gen ways to interact with computers.

During the company’s CES press conference, the company also showed off Dragon Naturally Speaking software which works a bit like Google Voice Search or Apple’s Siri, but for PCs by letting you use natural language voice commands such as “play an episode of Family Guy” or “Find me a pizza place” without touching your system.

Thinking bigger, Intel imagines that just as touch is starting to replace keyboard and mouse input on many devices, touchless controls could be the next evolution — and eventually instead of using wearable devices such as Google Glass or smartwatches, users will have surgically implanted devices to let them do things like start a car or unlock a door with a fingertip.

Intel future computing

We’re not quite there yet… but it’s clear Intel isn’t just thinking a more than just a year or two ahead when it moves into what it calls perceptual computing.


 

創作者介紹
創作者 JG 的頭像
JG

.

JG 發表在 痞客邦 留言(5) 人氣()


留言列表 (5)

發表留言
  • 亮亮亮
  • JG大哥您好

    想又來請教您幾個問題,目前使用兩台相機拍攝立體照片,遇到一個問題 :
    舉例 兩台相機若距離目標物一公尺以外,若使用 "光學變焦" ,拉至目標物一公尺前的地方拍攝...和直接站在目標物前一公尺的地方拍攝,拍攝出來的照片,目標物的 "立體感" 會有差別嘛?

    分別以左右相機拍攝的影片,該使用何種免費軟體將它編輯成一段立體影片呢?
    (兩段影片無法同步)

    謝謝您。
  • 1. 兩台相機在不同距離(不論其使用變焦鏡頭與否)拍攝同一目標物,因不同的距離拍攝,所以其光角也會不同;光角不同,也就會產生不同的「立體感」。
    2. 目前我尚未知道有何免費的軟體可以用來編輯立體影片。

    -JG

    JG 於 2014/01/22 20:07 回覆

  • 亮亮亮
  • JG大哥您好
    想跟您請教一下,拍攝3D照片時...

    1.您是否也是習慣兩台相機皆為"手動模式"? 讓拍攝的數據相同?

    2.最近在拍照發現,兩相機即使相同數據,開啟閃光燈下去照相,常常發現兩張照片會因為閃光燈,而造成進光量不同(一張較暗一張較亮),內閃或外閃,皆有此問題...想請問是否改善方法 或手法?

    3.那有何付費的3D影像編輯軟體呢?(編輯左右影片成為3D影片)
    有中文版的嘛?

    謝謝
  • 1. 一般我都是使用一體機來拍;如果是商業或專業用途則使用兩台機來拍,皆使用手動模式以確保3D拍攝品質。
    2. 這個問題可以考慮使用「手動」(或非自動)測光來改善。
    3. 可以使用Sony Vegas Pro 10 (或以上),我不確認有中文版。

    -JG

    JG 於 2014/02/21 14:46 回覆

  • 功德吾亮
  • 請問JG大大
    您對最近HTC出的M8手機,出的3D雙鏡頭有涉略嗎?
    並非裸視螢幕,但它的功能和您這篇有點相像。

    請問M8那種呈現3D圖片,應該定位於何種顯示方式?
    明明有雙攝像競投,那為何要捨棄裸視3D螢幕的顯示方式?
    成本考量? 還是另有其他?

    謝謝
  • 我無法從hTC M8的規格確認其是否使用Intel RealSense,不過從它的應用來看,應該是使用類似的3D鏡頭。其主要的訴求在於創造拍攝相片的趣味性與多元化,所拍攝出來的影像絕對可以處理成多視角3D立體影像用於裸眼3D顯示,至於M8為何捨裸眼3D顯示不用,可能是考慮成本因素。另外,Google最近也發表一款使用於手機的3D感應鏡頭(Project Tango),可以預期地,當有一線大廠開始推廣3D輸入裝置時,就會創造更多3D輸出裝置(如3D顯示器、3D Printer、…等)與相關3D應用的商機,這時有識之士應該要積極把握此良機,踏在巨人的肩膀上趁勢而起,方為上策。

    -JG

    JG 於 2014/04/15 15:04 回覆

  • 功德吾亮
  • 想再請教JG大大一個問題
    當我們雙眼看3D圖片時,雙眼接收的是兩張圖片的訊息
    如此一來,會比我們兩眼在看2D圖(一張圖片)的解析度還要高嗎!?

    畢竟是兩張圖合在一起,還是和我的想法沒有關係?
    家裡是被動式3DTV,無從比較起:)

    謝謝
  • 如果觀賞3D圖是要透過3D顯示器,則要考慮的是3D解析度,而非2D解析度。當3D影像顯示在3D顯示器時,一般它的3D解析度決定於所構成的視角(或視點)影像數目。如1920x1080解析度的3D顯示器,顯示9個視角(或視點)的3D影像時,其3D解析度將降為640x360。因為,它將一個1920x1080畫面同時分割成9份並顯示出來(分時處理顯示則無此現象),所以每個視角(或視點)所組成的3D影像,其3D解析度將會下降為640x360 (水平與垂直解析度各除以3),而不會提高。

    -JG

    JG 於 2014/04/15 15:05 回覆

  • 功德吾亮
  • JG大大您好
    想請問您幾個3D圖片編輯器的問題

    1.請問除了stphmkre這個軟體,還有別的推薦的3D圖片編輯軟體嘛?
    2.請問我將左右兩張照片丟進stphmkre,編輯成MPO或Stereo Image
    為什麼容量都會小幅縮減呢?(Image Quality 已經調至99)
    它會自動幫圖片做壓縮嘛?
    (舉例兩張約1.8M的照片,編製成MPO時,MPO的容量變為2.5M。
    編製成Stereo Image也約2.2M)

    煩請解答,感謝:)
  • 1. 因為我很少使用靜態3D圖片編輯軟體,所以沒有其他的軟體可以推薦。
    2. 有關MPO的影像壓縮問題,詳細請參考MPO的技術文件。

    JG 於 2014/08/22 10:55 回覆