Unul dintre cele mai bune aspecte ale ARKit, noul cadru Apple pentru construirea de aplicații cu realitate augmentată, este faptul că face toate ridicările grele incredibil de complexe, precum detectarea dimensiunilor camerei, a planurilor orizontale și a surselor de lumină, eliberând dezvoltatorii să se concentreze pe alte lucruri..
ARKit analizează în timp real scena prezentată de vizualizarea camerei.
În combinație cu datele senzorilor, este capabil să detecteze planurile orizontale, cum ar fi mesele și podelele, precum și să urmărească și să plaseze obiecte pe puncte mai mici cu o precizie deosebită.
Și pentru că utilizează senzorul camerei, ARKit poate estima cu exactitate cantitatea totală de lumină disponibilă într-o scenă pentru a aplica cantitatea corectă de iluminare obiectelor virtuale.
Mai întâi, consultați acest demo de la Tomás Garcia.
Poveștile la culcare pentru copii nu vor fi niciodată aceleași în această toamnă!
Un alt dezvoltator a pregătit o demonstrație rapidă care arată botul său AI, numit „Pepper”.
Conform descrierii videoclipului:
Lucrez la un bot AI de ceva vreme. Pentru a fi scurt, este ca V.I.K.I din filmul „Eu, robot”. Cu ajutorul lui ARKit, am putut să-l apropiez de un asistent de viață real.
Din motive evidente, nu demonstrez funcționalitatea ei în acest videoclip. Așa că am sfârșit arătându-ți băieți cât de ușor și simplu este de a aduce modele 3D la viață cu noul cadru Apple.
Aceste videoclipuri demonstrează clar cât de ușor face ARKit pentru dezvoltatori să corespundă umbrelor obiectelor lor virtuale la condițiile de iluminare din lumea reală.
Iată câteva demo-uri suplimentare activate ARKit.
ARKit necesită procesoare A9 sau A10, adică aplicațiile ARKit vor necesita un iPhone 6s sau mai nou sau unul dintre cele mai noi modele iPad Pro, fie de 9.7 inci, fie unul de 10.5 inci..
În orice caz, aceste videoclipuri demonstrează cât de ușor a făcut Apple să creeze o aplicație AR. Aștepți cu nerăbdare ARKit și de ce? Lasă un comentariu mai jos pentru a ne anunța.