Apple Maps в iOS 14 смогут сканировать горизонт для определения местоположения
В прошлом году Apple Maps получили, наверное, самое крупное обновление за всю историю существования. Apple переосмыслила подход к наполнению карт контентом, вывела детализацию на качественно новый уровень и добавила ряд весьма полезных режимов. В результате в Apple Maps появился даже собственный аналог панорам как в Google Maps, но только более качественный и бесшовный. Казалось бы, что еще нужно? Только знай себе, развивай то, что есть, дальше. Но в Купертино решили, что не будут останавливаться на достигнутом, а продолжат расширять возможности своих карт.
В iOS 14 карты Apple получили поддержку любопытного механизма, который позволяет лучше ориентироваться в плотной застройке городской среды для поиска нужных заведений. Он позволяет поднять iPhone и просто отсканировать горизонт, чтобы помочь алгоритмам точнее определить ваше местоположение. Скорее всего, нововведение базируется на базе панорам Look Around, поэтому карты могут распознавать объекты на переднем и заднем плане, сопоставлять их с информацией в базе и выдавать вам релевантную информацию о том, где именно вы находитесь и что находится рядом с вами.
Панорамы в Apple Maps
Поскольку Look Around доступен только в нескольких городах США, таких как Сан-Франциско, Нью-Йорк, Чикаго, Вашингтон (округ Колумбия), Сиэтл и Лас-Вегас, то и воспользоваться новым механизмом сканирования горизонта на первом этапе можно будет только там. Дело в том, что смартфону нужны сведения о местоположении зданий, растений, улиц и других объектов инфраструктуры для сопоставления, которые собрали автомобили Apple с панорамными камерами и заложили их в базу данных Apple Maps.
Чтобы повысить эффективность определения местоположения путем сканирования пространства, Apple решила, что не будет лишним предложить пользователям интересные маршруты, эксклюзивные для той местности, где они находятся. В число тех, кто будет курировать маршруты, уже вошли AllTrails, Lonely Planet, The Infatuation, Washington Post, Louis Vuitton и т. д. После того как пользователь отсканирует пространство и карты определят его местоположение, ему будет предложено проследовать по нескольким точкам, отобранным экспертами этих компаний.
Безопасность Apple
Apple гарантирует, что все действия по сканированию, обработке и сопоставлению информации производятся исключительно на устройстве пользователя. То есть никакие данные не передаются Apple, а сама она не знает, где именно находится пользователь. В это охотно верится, потому что в Купертино очень трепетно относятся даже к навигационной информации, дробя проложенные маршруты на несколько составных частей и отправляя их для обработки на разные сервера, где они тщательно шифруются. В результате даже если какому-то сотруднику удастся получить доступ к маршруту, он не сможет сопоставить его составные части друг с другом.
Судя по всему, у этого механизма нет собственного названия, но это не делает его менее ценным. Ведь пока, кажется, нет больше ни одних других карт, которые позволяют в штатном режиме взаимодействовать с окружающим пространством. Похожая штука появлялась в тестовом режиме в Google Maps, которая, кажется, должна была начать определять объекты с помощью дополненной реальности, но в результате Google столкнулась со множеством ограничений. Технология оказалась непомерно прожорливой, и ее приходилось отключать каждые 3 минуты, да и поддерживалась она только на устройствах Google Pixel. Apple MapsiOS 14Навигация