Noile funcții de „căutare multiplă” de la Google sugerează viitorul ochelarilor AR – TechCrunch

În aprilie, Google a introdus o nouă funcție de „căutare multiplă” care a oferit o modalitate de a căuta pe web folosind atât text, cât și imagini. Astăzi, la Google I/O Developer Conference, compania a anunțat o extensie a acestei funcții, numită „Multisearch Near Me”. Această adăugare, care va veni mai târziu în 2022, va permite utilizatorilor aplicației Google să combine o imagine sau o captură de ecran cu textul „lângă mine” pentru a fi direcționate către opțiuni pentru comercianții cu amănuntul sau restaurantele locale. care ar avea hainele, articolele de uz casnic sau alimentele pe care le cauți. De asemenea, anunță o dezvoltare viitoare pentru căutarea multiplă, care pare să fie construită având în vedere ochelarii AR, deoarece poate căuta vizual mai multe obiecte într-o scenă pe baza a ceea ce „vezi” în prezent prin vizorul unei camere. camera smartphone-ului.

Cu noua interogare de căutare multiplă „lângă mine”, veți putea găsi opțiuni locale legate de combinația dvs. curentă de căutare vizuală și text. De exemplu, dacă lucrați la un proiect de bricolaj și ați dat peste o piesă pe care trebuia să o înlocuiți, puteți face o fotografie a piesei cu camera telefonului pentru a o identifica, apoi puteți găsi un magazin de hardware local care are un înlocuitor în stoc. .

Nu este atât de diferit de modul în care funcționează deja căutarea multiplă, spune Google – este doar adăugarea componentului local.

Credite de imagine: Google

Ideea căutării multiple a fost inițial de a permite utilizatorilor să pună întrebări despre un obiect din fața lor și să restrângă acele rezultate după culoare, marcă sau alte atribute vizuale. Funcția funcționează cel mai bine cu căutările de cumpărături de astăzi, deoarece le permite utilizatorilor să restrângă căutările de produse într-un mod pe care căutările standard pe web bazate pe text ar putea uneori să le facă greu să le gestioneze. De exemplu, un utilizator ar putea fotografia o pereche de adidași și apoi să adauge text pentru a solicita să le vadă în albastru, astfel încât să li se afișeze doar pantofii de culoarea specificată. Ar putea alege să viziteze site-ul pentru adidași și să-i cumpere imediat. Extensia pentru a include opțiunea „aproape de mine” acum limitează pur și simplu rezultatele pentru a direcționa utilizatorii către un comerciant local unde produsul dat este disponibil.

În ceea ce privește ajutarea utilizatorilor să găsească restaurante locale, funcția funcționează în același mod. În acest caz, un utilizator ar putea căuta pe baza unei fotografii pe care a găsit-o pe un blog alimentar sau în altă parte de pe web pentru a afla care este felul de mâncare și ce restaurante locale ar putea avea opțiunea în meniul de cină. , ridicați sau livrați. Aici căutarea Google combină imaginea cu intenția de a căuta un restaurant din apropiere și va scana milioane de imagini, recenzii și contribuții ale comunității la Google Maps pentru a găsi locul local.

Noua funcție „aproape de mine” va fi disponibilă la nivel global în engleză și va fi lansată în mai multe limbi în timp, a spus Google.

Cel mai interesant plus la căutarea multiplă este capacitatea de a căuta într-o scenă. În continuare, Google spune că utilizatorii își vor putea deplasa camera pentru a afla mai multe despre mai multe obiecte din această scenă mai mare.

Google sugerează că funcția ar putea fi folosită pentru a scana rafturile unei librării și apoi pentru a vedea mai multe informații utile suprapuse în fața ta.

Captură de ecran 2022 05 11 la 13.23.07

Credite de imagine: Google

„Pentru a face acest lucru posibil, nu numai că combinăm viziunea computerizată, înțelegerea limbajului natural, dar combinăm și aceasta cu cunoștințele despre web și tehnologia de pe dispozitiv”, a spus Nick Bell, director senior al Google. Căutare. „Așadar, posibilitățile și capacitățile acestui lucru vor fi uriașe și semnificative”, a menționat el.

Compania – care a venit devreme pe piața AR cu lansarea Google Glass – nu a confirmat că are în lucru un nou dispozitiv asemănător ochelarilor AR, dar a sugerat această posibilitate.

„Cu sistemele AI acum, ceea ce este posibil astăzi – și va fi în următorii câțiva ani – deschide într-un fel o mulțime de oportunități”, a spus Bell. Pe lângă căutarea vocală, căutarea pe desktop și pe mobil, compania crede că căutarea vizuală va fi, de asemenea, o parte mai mare a viitorului, a menționat el.

Captură de ecran 2022 05 11 la 1.22.32 PM

„Există 8 miliarde de căutări vizuale pe Google cu Lens în fiecare lună acum și acest număr este de trei ori mai mare decât acum un an”, a continuat Bell. „Ceea ce vedem cu siguranță de la oameni este că apetitul și dorința de a căuta vizual există. Și ceea ce încercăm să facem acum este să ne uităm la cazurile de utilizare și să identificăm unde este cel mai util”, a spus el. „Cred că atunci când ne gândim la viitorul căutării, căutarea vizuală este cu siguranță o parte cheie a acesteia. »

Compania, desigur, lucrează la un proiect secret, cu numele de cod Project Iris, pentru a construi o nouă cască AR cu o dată de lansare programată în 2024. Este ușor să ne imaginăm nu numai cum ar putea funcționa această capacitate de scanare a scenei pe un astfel de dispozitiv. , dar și modul în care orice fel de funcție de căutare imagine-plus-text (sau voce!) ar putea fi utilizată pe o cască AR. Imaginați-vă că vă uitați din nou la perechea de adidași care v-a plăcut, de exemplu, apoi cereți unui dispozitiv să meargă la cel mai apropiat magazin pe care ați putea face achiziția.

„Căutând mai departe, această tehnologie ar putea fi utilizată dincolo de nevoile de zi cu zi pentru a ajuta la abordarea provocărilor societății, cum ar fi ajutând conservaționiștii să identifice speciile de plante care au nevoie de protecție sau ajutând lucrătorii umanitari în caz de dezastru pentru a sorta rapid donațiile atunci când este necesar”, a sugerat Prabhakar Raghavan. , vicepreședinte senior al Căutării Google, vorbind pe scenă la Google I/O.

Din păcate, Google nu a oferit o cronologie pentru momentul în care se aștepta să obțină capacitatea de scanare a scenei în mâinile utilizatorilor, deoarece funcția este încă „în dezvoltare”.

"Citit

Add Comment