Google ประกาศแผนพัฒนา AI Glasses อย่างเป็นทางการ โดยตั้งเป้าเปิดตัวผลิตภัณฑ์อย่างเป็นทางการในช่วงปี 2026 พร้อมสาธิตต้นแบบ “Aura” ซึ่งพัฒนาร่วมกับ XREAL แบรนด์แว่น XR ชั้นนำ จุดสำคัญ คือ การนำแพลตฟอร์ม Android XR และ Gemini AI มาเป็นแกนหลัก เพื่อสร้างแว่นอัจฉริยะที่ไม่ใช่แค่แสดงภาพ แต่เข้าใจบริบทของผู้ใช้และโลกจริง
ฟีเจอร์เด่นที่ทำให้คนจับตา
Aura ถูกออกแบบให้เป็นแว่น XR แบบโปร่งใส มองเห็นโลกจริงพร้อมข้อมูลดิจิทัลซ้อนทับ รองรับการใช้งานแอป เสมือนจอคอมพิวเตอร์ลอยอยู่ตรงหน้า การควบคุมด้วยเสียงและ AI Assistant จาก Gemini ช่วยสรุปข้อมูล แปลภาษา และดึงข้อมูลแบบเรียลไทม์ ถือเป็นก้าวสำคัญของการผสาน AI เข้ากับอุปกรณ์สวมใส่
วิดีโอจาก : Android
ข้อดี และข้อจำกัดของตัว AI Glasses
ข้อดีของ Aura คือ การใช้แพลตฟอร์ม Android XR ซึ่งเป็นระบบปฏิบัติการสำหรับอุปกรณ์ XR โดยเฉพาะ ทำให้นักพัฒนาต่อยอดแอปได้ง่าย และ AI ช่วยลดขั้นตอนการใช้งานที่ซับซ้อน
ข้อจำกัดที่ยังต้องพัฒนา
- อายุแบตเตอรี่
- น้ำหนักแว่น
- ความเป็นส่วนตัวของข้อมูล
- ประสบการณ์ใช้งานจริงในชีวิตประจำวัน ซึ่งยังต้องรอเวอร์ชันพร้อมขายจริงในอนาคต
ซึ่ง AI Glasses ของ Google นี้เหมาะกับสายเทคโนโลยี นักพัฒนา ครีเอเตอร์ นักธุรกิจ และงานที่ต้องใช้ข้อมูลแบบเรียลไทม์ เช่น การทำงานระยะไกล การนำเสนอ 3D การเรียนรู้ และ AR Training การใช้งานให้มีประสิทธิภาพคือเลือกแอปที่ตอบโจทย์งานจริง ไม่ใช้แทนทุกอย่าง แต่ใช้เป็น “ผู้ช่วย AI” ที่เสริมศักยภาพการทำงานและการใช้ชีวิต