Thực tại ảo – Vũ điệu của bàn tay

Thực tại ảo – Vũ điệu của bàn tay

Cuối năm 2015, hòa vào cơn sốt của những người hâm mộ phim Star Wars – The Force Awakens, Google giới thiệu trò chơi Lightsaber Escape trên trình duyệt Chrome. Khi vào trang trò chơi bằng trình duyệt Chrome trên máy PC/Mac, người dùng nhận được địa chỉ để tải xuống trò chơi trên iPhone hoặc điện thoại Android. Sau thao tác đồng bộ hóa điện thoại với máy tính, điện thoại trong tay người dùng trở thành “thanh gươm ánh sáng” của hiệp sĩ Jedi trong phim. Người cầm điện thoại có thể vung tay gươm để chiến đấu với chiến binh Stormtrooper trên màn hình máy tính. Cử động tay của người cầm điện thoại được ghi nhận nhờ con quay hồi chuyển (gyroscope) và bộ đo gia tốc (accelerometer) trong điện thoại.

Đối với người đeo kính thực tại ảo Oculus Rift, cử động tay được ghi nhận tinh tế hơn bởi nhiều bộ cảm biến bên trong thiết bị cầm tay Oculus Touch. Oculus Touch có thể nhận biết động tác vẫy tay, chỉ trỏ hoặc giơ ngón cái. Oculus Touch cho người dùng cảm giác như đang cầm súng! Nhờ Oculus Touch, người đeo Oculus Rift nhìn thấy hai bàn tay ảo của mình trong thực tại ảo, có thể làm việc hoặc chiến đấu trong thực tại ảo.

Những công cụ có tính mô phỏng giúp cho tương tác giữa người và thiết bị trở nên tự nhiên. Khả năng mô phỏng càng chính xác, càng kích thích sự nhạy cảm của bàn tay, người dùng càng thấy thoải mái. Không chỉ thích hợp với thiết bị thực tại ảo, công nghệ nhận biết cử động của bàn tay mà không cần chạm vào màn hình cũng đắc dụng cho trường hợp thiết bị không có màn hình hoặc thiết bị có màn hình lớn (như TV).

Năm 2007, các chuyên gia thuộc trung tâm nghiên cứu Microsoft Research tại Anh bắt đầu thử nghiệm sản phẩm ThinSight. ThinSight là màn hình LCD thông thường được trang bị thêm ở phía sau một mạng lưới bộ thu phát sóng hồng ngoại. Sóng hồng ngoại xuyên qua màn hình LCD, bị phản xạ bởi ngón tay đặt gần màn hình (không nhất thiết phải chạm vào màn hình), giúp theo dõi các đầu ngón tay. Từ khi có iPhone/iPad, màn hình cảm ứng (dùng mạng lưới tụ điện) phát triển mạnh mẽ, công nghệ màn hình ThinSight chưa thể đi vào thị trường. Tuy nhiên, kinh nghiệm của Microsoft về việc nhận biết cử động bàn tay đã được ứng dụng trong sản phẩm KinectHoloLens.

Năm 2010, công ty Leap Motion đưa ra thị trường thiết bị Leap Motion có dạng như một chiếc hộp nhỏ, gắn vào máy tính để nhận biết cử động của bàn tay. Leap Motion dùng ba đèn LED phát sóng hồng ngoại và dùng hai ống kính (camera) thu sóng hồng ngoại phản xạ từ bàn tay người dùng. Bàn tay của người dùng có thể đặt bên trên thiết bị Leap Motion khoảng 60 cm. Công nghệ Leap Motion đã được tích hợp vào máy tính HP. Leap Motion cũng được dùng để điều khiển đôi tay trong thực tại ảo.

image002

Trung tâm nghiên cứu Google ATAP (Advanced Technology And Products) hiện đang tiến hành dự án Soli cũng nhằm phát triển khả năng nhận biết cử động của ngón tay mà không cần chạm vào màn hình, không cần đặt ngón tay ngay trước màn hình. Bộ cảm biến Soli nhỏ bé nằm gọn trong bảng vi mạch, có khả năng phát sóng vô tuyến để nhận biết cử động của ngón tay, ngay cả khi độ dịch chuyển của ngón tay dưới 1 mm.

Với công nghệ AllSee của Đại học Washington, cử động của bàn tay được ghi nhận nhờ sóng vô tuyến luôn hiện diện trong môi trường. Bộ cảm biến AllSee có khả năng phát hiện được sự nhiễu loạn sóng điện từ do cử động của bàn tay gây ra. Công nghệ AllSee cho phép cử động của bàn tay điều khiển thiết bị ở xa vài mét, cho phép mở khóa điện thoại mà không cần chạm vào điện thoại, kể cả khi điện thoại nằm trong túi xách kín. Bộ cảm biến AllSee không tiêu thụ năng lượng (không cần pin) nhờ hấp thu năng lượng từ sóng vô tuyến trong môi trường.

Năm 1999, khi dự định làm phim với kịch bản chuyển thể từ truyện khoa học viễn tưởng The Minority Report của nhà văn Philip Dick, đạo diễn Steven Spielberg đã mời các học giả danh tiếng tham dự một cuộc tọa đàm thân mật để nhận được ý tưởng về những tiến bộ công nghệ khả dĩ sẽ có vào năm 2054. Trong phim, nhân vật John Anderton (diễn viên Tom Cruise) dùng cử động của bàn tay tựa như một điệu múa trước màn hình rất lớn để truy tìm thông tin.

Hình ảnh của năm 2054 trong phim The Minority Report đã khá gần với… hiện tại. Xuất hiện ngày càng nhiều những thử nghiệm “theo phong cách The Minority Report“, đặc biệt chú trọng tương tác giữa người với màn hình lớn và rất lớn (màn hình quảng cáo nơi công cộng). Những công nghệ tạo ra tương tác như vậy ít nhiều giống với thiết bị Kinect của Microsoft: các ống kính nhận biết người đến gần màn hình và theo dõi cử động tay/chân của người ấy. Chẳng hạn, thiết bị MotionMagix gắn vào máy chiếu có thể làm cho bức tường hoặc sàn nhà biến thành màn hình lớn có tính tương tác, cho phép tạo ra nhiều loại trò chơi vận động. Từ đó xuất hiện tên gọi “tường tương tác” (interactive wall) và “sàn tương tác” (interactive floor).

Như thể lấy cảm hứng từ những ảnh toàn ký ba chiều (3D hologram) trong phim The Minority Report, đầu năm 2014, công ty Apple đăng ký bằng sáng chế về thiết bị hiển thị ảnh toàn ký ba chiều, được điều khiển qua cử động tay của người dùng (bằng sáng chế mang tên Interactive three-dimensional display system). Theo mô tả của Apple, thiết bị hiển thị là một hộp gồm hai gương parabol trên và dưới. Hai máy chiếu cho phép mô hình ba chiều tạo bởi máy tính xuất hiện lơ lửng giữa hai gương giống hệt vật thể thực. Người xem có thể đi vòng quanh để quan sát vật thể ảo được hiển thị. Tia laser phát ra từ hộp giúp theo dõi cử động tay, cho phép người xem tương tác với vật thể ảo.

Giao tiếp giữa người và thiết bị qua lời nói cũng thường được xem là phương thức tự nhiên. Tuy nhiên, phát âm thành lời có “lực cản” lớn hơn so với cử động của tay. Tựa như khi mệt mỏi, bạn thường dùng thao tác nào đó của tay để trả lời, thay cho lời đáp.

Trong sách khảo luận Reclaiming Conversation (2015), nhà xã hội học Sherry Turkle kể rằng có lần bà rất ngạc nhiên khi quan sát một nhóm học sinh trung học ngồi chơi gần nhau nhưng chỉ trò chuyện với nhau qua tin nhắn trên điện thoại, thay vì đơn giản dùng lời nói. Những ngón tay thoăn thoắt bấm chữ trên màn hình điện thoại dù lanh lẹ thế nào cũng không thể nhanh chóng hơn một lời nói, hơn nữa, lời nói có vô vàn cung bậc cảm xúc. Thế nhưng các học sinh mà Turkle quan sát đã chọn cách dùng tay để diễn đạt. Có thể các em ưa chuộng lối viết đặc thù nào đó, “nói ít hiểu nhiều”. Cũng có thể các em đang thuộc về một nhóm trò chuyện lớn hơn trên mạng, đang chia sẻ những hình ảnh thú vị. Dù sao, đó là một trường hợp mà việc dùng tay mang đến cảm giác thoải mái hơn dùng lời.

Nếu như người viết tin nhắn không phải chạm ngón tay vào màn hình, chỉ cần lướt ngón tay bên trên màn hình, nếu như những câu nhắn tin thông thường xuất hiện lập tức trên màn hình tương ứng với cử động đặc thù nào đó của các ngón tay hoặc cả bàn tay? Phương thức giao tiếp như vậy có “lực cản” rất thấp, chắc chắn sẽ được ưa chuộng. Trong thực tế hiện nay, việc dùng cử động tay trong không trung để điều khiển thiết bị có màn hình nhỏ như điện thoại chưa đủ chính xác, tinh tế để có thể thay thế hoàn toàn thao tác trên màn hình cảm ứng (trường hợp dòng sản phẩm Samsung Galaxy). Cuộc sống đang chờ đợi thành quả dành cho điện thoại của các dự án như Soli và AllSee.

Làm việc liên tục với thiết bị bằng lời nói có lẽ không phải là điều thú vị, trừ khi hai tay bận làm việc khác nữa, chẳng hạn như trường hợp… nhân vật Tony Stark trong phim Iron Man (2008) điều khiển bộ giáp sắt của mình. Những người múa tay mềm mại trước màn hình điện thoại và những người ra lệnh cho điện thoại bằng lời nói, bạn nghĩ nhóm người nào sẽ chiếm ưu thế trong tương lai?

NGỌC THẠCH (Theo e-CHÍP Mobile)

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận