Snap Partner Summit 2020

Snap versterkt haar augmented reality platform met nieuwe features

Afgelopen week was Snap’s jaarlijkse developers bijeenkomst de Snap Partner Summit (met een te gek virtueel decor) waar ze hun positie als één van de grootste AR-spelers verder verstevigd hebben. Dagelijkse gebruiken 170 miljoen gebruikers AR-features en zijn er rond de miljoen Lensen ontwikkeld waarvan 30% door de creators community gemaakt is. Ze kondigden aan dat je lensen kan zoeken via voice en ze lanceren visual search. Snap gaat duidelijk meer de rol aannemen van een digital assistant waarmee je via voice AR kan triggeren en met je camera bijvoorbeeld planten en hondenrassen kan identificeren. 

Machine learning en local lenses

Snap laat creators in de toekomst ook hun eigen machine learning modellen gebruiken zodat de camera van Snap nog slimmer wordt. Ze gaan bijvoorbeeld een samenwerking met Wannaby aan waarmee voeten getrackt kunnen worden en virtuele schoenen gepast kunnen worden. Bekijk ook deze toffe Lenses van CV2020 en een demo van Capitola waarmee Snap een pizzadoos herkent tussen andere objecten. De tofste aankondiging vind ik Local Lenses waarmee ze de volledige (lokale) fysieke wereld als 3D-model gaan aanbieden zodat de AR naadloos aansluit op de omgeving. Nu zijn het alleen nog bepaalde landmarks maar straks worden het complete wijken. Zou Snap de eerste worden die de langverwachte AR cloud kan gaan optuigen. Lees al het nieuws van de summit.

Visual: IPG Media Lab