Maak advertensie toe

Die derde ontwikkelaar beta weergawe van die stelsel iOS 13 versteek baie nuwe gadgets. Een daarvan is outomatiese oogkontakkorreksie. Die ander party het dan die indruk dat jy direk in hul oë kyk.

Nou, wanneer jy op 'n FaceTime-oproep met iemand is, kan die ander party baie dikwels sien dat jou oë af is. Dit is te wyte aan die feit dat die kameras nie direk in die skerm is nie, maar op die boonste rand daarbo. In iOS 13 kom Apple egter met 'n onkonvensionele oplossing vorendag, waar die nuwe ARKit 3 'n leidende rol speel.

Die stelsel pas beelddata nou intyds aan. So al is jou oë af, wys iOS 13 jou asof jy direk in die ander persoon se oë kyk. Verskeie ontwikkelaars wat die nuwe kenmerk getoets het, het reeds op sosiale netwerke verskyn.

Een van hulle was byvoorbeeld Will Sigmon, wat duidelike foto's verskaf het. Die linkerfoto toon die standaardsituasie tydens FaceTime op iOS 12, die regterfoto toon outomatiese regstelling deur ARKit in iOS 13.

iOS 13 kan oogkontak tydens FaceTime herstel

Die kenmerk gebruik ARKit 3, dit sal nie vir iPhone X beskikbaar wees nie

Mike Rundle, wat op roep was, is verheug oor die resultaat. Boonop is dit een van die kenmerke wat hy in 2017 voorspel het. Terloops, sy hele lys voorspellings is interessant:

  • Die iPhone sal 3D-voorwerpe in sy omgewing kan opspoor deur deurlopende ruimteskandering te gebruik
  • Oognasporing, wat sagteware in staat stel om beweging te voorspel en dit moontlik maak om die gebruikerskoppelvlak van die stelsel met oogbewegings te beheer (Apple het SensoMotoric Instruments in 2017 gekoop, wat as 'n leier op hierdie gebied beskou word)
  • Biometriese en gesondheidsdata verkry deur die gesig te skandeer (wat is die persoon se polsslag, ens.)
  • Gevorderde beeldbewerking om direkte oogkontak tydens FaceTime te verseker, byvoorbeeld (wat nou gebeur het)
  • Masjienleer sal die iPhone geleidelik toelaat om voorwerpe te tel (die aantal mense in die kamer, die aantal potlode op die tafel, hoeveel T-hemde ek in my klerekas het...)
  • Onmiddellike meting van voorwerpe, sonder die behoefte om 'n AR-liniaal te gebruik (hoe hoog is die muur, ...)

Intussen het Dave Schukin bevestig dat iOS 13 ARKit gebruik om oogkontak reg te stel. Tydens stadiger terugspeel kan jy sien hoe die bril skielik vervorm voordat dit op die oë geplaas word.

Ontwikkelaar Aaron Brager voeg dan by dat die stelsel 'n spesiale API gebruik wat slegs in ARKit 3 beskikbaar is en beperk is tot die nuutste iPhone XS / XS Max en iPhone XR-modelle. Die ouer iPhone X ondersteun nie hierdie koppelvlakke nie en die funksie sal nie daarop beskikbaar wees nie.

bron: 9to5Mac

.