Как да използвате Google Lens в Google Assistant на вашите телефони Pixel
Miscellanea / / December 02, 2021
Google представи Google Lens на I/O 2017 с най-новите си водещи устройства – Pixel 2 и Pixel 2XL. Google Lens е софтуерът за интелигентна камера, разработен от технологичния гигант, който използва камерата на вашия смартфон и дълбоко машинно обучение, за да идентифицира обекти на снимка.
Google Lens не е приложение. Той е включен директно в Google Photos и Google Assistant. Той е достъпен в Google Photos от пускането на телефоните Pixel 2. Сега Google започна да пуска Google Lens на Google Асистент във всичко Телефони Pixel.
Как да използвате Google Lens в Google Assistant
Забележка: Google Lens в момента е наличен за Pixel, Pixel XL, Pixel 2 и Pixel 2 XL.
Етап 1. Внимавайте за Google Lens
Стартирайте Google Assistant, като стиснете своите Pixel 2 и Pixel 2 XL. Ако имате телефони Pixel от първо поколение, просто натиснете дълго бутона за начало.
Сега ще видите иконата на Google Lens в долния десен ъгъл на екрана на телефона си.
Стъпка 2. Разрешаване на достъп до камерата
Когато докоснете иконата на Google Lens за първи път, тя ще предложи малка подкана, обясняваща какво може да направи асистентът за визуално търсене.
Ще видите Докоснете, за да продължите бутон под него. След като натиснете този бутон, Google ще поиска вашето разрешение за това разреши достъп до камерата. Натисни Позволява и сте готови.
Стъпка 3. Изпробвайте Google Lens
Сега, всеки път, когато отворите Google Lens, той веднага ще се стартира във визьора и ще видите четири познати „оцветени в Google“ точки в действие. Можете да докоснете навсякъде във визьора, за да разберете за въпросния обект. В визьор също показва бутона за светкавица в десния ъгъл, който можете да използвате при условия на слаба светлина.
Понастоящем Google Lens може да се използва в няколко ситуации, включително разпознаване на текст и сканиране на баркод. Може да идентифицира книги, филми, изкуство и забележителности.
Как работи Google Lens в различни сценарии
Направих няколко снимки, всяка от които показва различни обекти в рамката, за да тествам работата на Google Lens. Да видим как работи.
Google Lens беше точен при разпознаването на листа и растения. Въпреки това, не е много конкретно относно резултатите. Понякога, ако предлага допълнителни карти, предлагащи повече информация за обекта.
Бях особено изненадан в случая на горната снимка, където вместо да я идентифицира като дроид, Google Lens просто позна дали е играчка. Очаквах обективът да разпознае дроида веднага.
Обективът успя да разпознае Chromecast правилно и дори показа информационна карта, в която се споменават Google, Play Store, YouTube, изображения и други медийни опции.
Изображенията, направени с обектива, се появяват в общата история на Google Assistant, заедно с придружаващия резултат от търсенето.
Ако ви харесва резултатът, предлаган от обектива, можете да натиснете бутона с палец нагоре или бутона надолу, ако не сте доволни от него. Можете дори да споделите обратната връзка за конкретен резултат в социалните медии.
Google Lens беше перфектен идентифициращи книги. Той дори предлага връзки, където можете да закупите книгата на изображението. Обективът е страхотен в четенето на знаци и следователно работи добре с обекти, върху които има текст.
Интегрирайте с Асистент, Google Lens се въвежда в Индия, Обединеното кралство, Австралия, Канада и Сингапур на устройства, на които английският е зададен като език по подразбиране.
Струва си да опитате
Google Lens далеч не е перфектен в момента и трябва да се подобри много. Той отбелязва точки, когато става въпрос за забележителности, книги, обекти с текст върху тях и други относително известни обекти и следователно има няколко случая, в които всъщност можете да го използвате.
Въпреки това, с течение на времето Google постепенно ще подобрява обектива с куп нови случаи на употреба. Освен това дълбокото обучение също ще се подобри много повече в дългосрочен план.
Опитахте ли вече Google Lens? Колко полезно беше? Уведомете ни в секцията за коментари по-долу. Ще се радваме да чуем от вас!