Live Translation Maaaring Tumuturo sa Kinabukasan ng Apple Glasses

Talaan ng mga Nilalaman:

Live Translation Maaaring Tumuturo sa Kinabukasan ng Apple Glasses
Live Translation Maaaring Tumuturo sa Kinabukasan ng Apple Glasses
Anonim

Mga Key Takeaway

  • Ang mga bagong feature ng accessibility ay kinabibilangan ng mga Live Caption na nabuo sa real-time, para sa anumang video o pag-uusap.
  • Kung ang feature na ito ay hindi ginawa para sa rumored AR glasses ng Apple, kakainin namin ang aming virtual emoji hat.
  • May kasaysayan ang Apple sa pagsubok ng mga feature ng produkto sa hinaharap sa loob ng mga kasalukuyang device.
Image
Image

Ang bagong Live Caption ng Apple ay nagdaragdag ng mga real-time na sub title sa anumang bagay, kabilang ang taong nakatayo sa harap mo.

Tulad ng konsepto ng Google na AR Glasses, inihayag ngayong linggo. Ang Mga Live na Caption ng Apple ay maaaring kumuha ng papasok na audio at i-transcribe ito kaagad. Ang pagkakaiba ay ang bersyon ng Apple ay ipapadala "sa huling bahagi ng taong ito," na malamang na nangangahulugan na ito ay nasa iOS 16 na release ngayong taglagas. Ngunit ang totoong balita dito ay ito ang pinaka-halatang saksak ng Apple sa pagsubok sa hinaharap na mga feature ng Apple Glasses na nakikita.

"Bilang isang taong may dalawang magulang na parehong nahihirapan sa pandinig, malaki ang tulong nito, " isinulat ng Apple-centric na mamamahayag na si Dan Moren sa kanyang personal na Six Colors blog. "Nacurious ako na makita kung gaano kahusay gumagana ang feature at kung paano nito pinangangasiwaan ang isang malaking tawag sa FaceTime na may maraming kalahok; sinabi ng Apple na ipatungkol nito ang dialog sa mga partikular na speaker."

Sleight of Hand

Ang Live Captions, na mapupuntahan natin sa isang segundo, ay malayo sa unang feature ng AR glasses na sinubukan ng Apple. Ang pinaka-halata ay ang pagsasama ng mga LIDAR camera sa mga iPhone at iPad. Nakakatulong ang mga scanner na ito na lumikha ng tumpak na 3D na mapa ng mundo sa labas at pinapayagan ang iPhone na mag-overlay ng mga 3D na modelo sa totoong mundo na ipinapakita sa pamamagitan ng camera.

Hindi ako sigurado na mapagkakatiwalaan natin ang live na pagsasalin ng Apple nang mas mahusay kaysa sa bagong AR glass ng Google, ngunit sa palagay ko maaari tayong magtiwala na ang kumpetisyon ay makakatulong sa pagpaparami ng pinakamahusay na mga resulta.

Sa ngayon, ginagamit na ang teknolohiyang ito para hayaan kang mag-preview ng mga bagong Apple computer sa sarili mong desk, maglaro ng AR Lego games, subukan ang IKEA furniture sa iyong sala, at iba pa. Ang LIDAR hardware ay napakawalang kabuluhan sa mga iPhone na dapat ay naroroon lamang ito upang mahasa ng Apple ang hardware at software para sa isang tunay na AR application: Apple Glasses.

Hindi lang ito visual AR, alinman. Ang mga AirPod ay nagdaragdag ng maayos na mga tampok ng AR sa loob ng maraming taon na ngayon. Ang pinakabago, Spatial Audio, ay nililinlang ang ating mga utak sa pag-iisip na ang mga tunog ay nagmumula sa lahat sa ating paligid at ito ay isang mahusay na paraan upang manood ng mga pelikula o makinig sa mga nakakarelaks na soundscape. Ito ay isang mahusay na tampok, ngunit ito ay magiging mas mahusay kapag ito ay gumagana sa inaasahang produkto ng salamin sa hinaharap ng Apple. Ang kakayahang maglagay ng mga tunog sa isang 3D space upang tumugma sa mga AR object ay talagang magbebenta ng ilusyon.

O paano naman ang Live Text, ang iOS 15 na teknolohiya na kumikilala at nagbabasa ng text sa mga larawan, at live, sa pamamagitan ng camera ng iPhone? Isa pang feature iyon na mainam para sa pagbabasa ng mga sign, menu, at iba pang text sa pamamagitan ng AR glasses.

Mga Live na Caption

Ang Live Captions ay kumukuha ng pagsasalita mula sa isang tawag sa FaceTime, mga app sa video-conferencing, streaming ng video, at iba pa. Kinukuha ng iyong telepono ang audio at ini-transcribe ito on-the-fly, na nagbibigay ng mga sub title, tulad ng nakikita sa video na ito.

Maganda iyan, ngunit ang mas maganda pa ay wala nang umaalis sa iyong iPhone. Ang mga caption, sabi ng Apple, ay nabuo sa device sa halip na ipadala sa isang server. Hindi lang ito mas pribado, mas mabilis din ito.

"Hindi ako sigurado na mapagkakatiwalaan namin ang live na pagsasalin ng Apple nang mas mahusay kaysa sa bagong AR glasses ng Google, ngunit sa palagay ko mapagkakatiwalaan namin na ang kumpetisyon ay makakatulong sa pagpaparami ng pinakamahusay na mga resulta," sabi ni Kristen Bolig, tagapagtatag ng SecurityNerd, sa Lifewire sa pamamagitan ng email."Ngayon na ang kumpetisyon ay pampubliko at ang mga isyu sa ganitong uri ng teknolohiya (pagkapribado, katumpakan, atbp.) nilulutas ang mga problemang ito."

Inaasahan din namin ang ilang uri ng built-in na awtomatikong pagsasalin tulad ng makukuha mo ngayon gamit ang third-party na app na Navi upang awtomatikong isalin ang iyong mga pag-uusap sa FaceTime, o marahil isang paraan upang i-save ang mga transkripsyon na ito sa panahon ng mga panayam para sa mas madaling access mamaya.

Matagal na naming tinatangkilik ang mahuhusay na feature ng pagiging naa-access mula sa Apple, na nagpapahintulot sa amin na i-customize ang aming mga iOS device sa halos walang katotohanan na lawak. Mula sa pagsasaayos ng display para gawing mas madaling makita ang mga kulay at text, hanggang sa pagkontrol sa buong user interface gamit ang mga external na device, hanggang sa pag-abiso sa iyo ng telepono kapag may nagdoorbell, o may dumating na delivery van sa labas.

Ngayon, lahat tayo ay nakakakuha ng mga benepisyo ng pinataas na pananaliksik ng Apple sa augmented reality tech. Maaaring wala tayong pakialam sa IKEA o LEGO, ni hindi man lang gustong bumili ng isang pares ng Apple's fabled AR glasses device, ngunit hindi ibig sabihin na hindi natin lahat ay matatamasa ang mga bunga ng pananaliksik na iyon.

Inirerekumendang: