Dieser von Google entwickelte Chip wurde aktiviert, als die Pixel 2 und Pixel 2 XL Systeme auf Android 8.1 aktualisiert wurden, aber Google sagte nur, dass der Chip die HDR + Rechenleistung verbessern wird, während er Bilder für eine bessere Kameraleistung aufnimmt.
Die spezifische wie es zu verwenden ist nicht zu detaillierte Beschreibung.
Mit den kommenden Pixel- und Nexus-Telefonen werden jedoch erst im Februar Systempatches Pixel Visual Core aktiviert.
Google sagte, dass durch Pixel von Visual Core die Anwendung das System eine bessere integrierte Kamera API bessere Fotos, Direkt schießen aufrufen können.
Und hier ist die Anwendung, nicht das Android-System integrierte Kamera-Anwendungen, aber Anwendungen von Drittanbietern, genauer gesagt, diese Anwendungen haben die Erlaubnis, die Kamera zu öffnen.
Google ist in der Dokumentation der drei gegebenen unterstützt derzeit Pixel von Visual Core-Anwendungen von Drittanbietern, nämlich Instagram, Snapchat und WhatsApp jedoch diese drei Anwendungen in uns nicht.
Aber dies bedeutet nicht, dass nur diese drei Anwendungen direkt Pixel von Visual-Core nennen können, weil Google Kamera-API und Visual Pixel Core-Open-Source ist, so in der Theorie kann jeder Entwickler ihre Anwendung machen ruft Pixel von Visual Core zu Direkt schießen Sie bessere Fotos.
Natürlich illustriert Google einmal mehr die Verbesserungen, die Pixel Visual Core zum Fotografieren bringt:
Pixel Visual Core wurde entwickelt, um eine starke Bildverarbeitung zu ermöglichen, aber sein Stromverbrauch ist sehr gering, wodurch Akkuleistung gespart wird. Und vor allem kann diese zusätzliche Rechenleistung genutzt werden, um HDR + zur Verbesserung der Bildqualität zu verwenden.
Darüber hinaus hat Google einige Beispiele bereitgestellt, um den Effekt der Aufnahme von Bildern nach der Aktivierung von Pixel Visual Core zu demonstrieren.
Die erste Gruppe von Fotos zeigt die Verbesserung der Bildqualität, die fähigsten Fähigkeit von Google, ist zu fotografieren bei schwachem Licht und Detailverlust ist nicht der Ort, um wieder, aber es wird nicht durch eine Erhöhung die Helligkeit und Unschärfe von Rauschen erreicht werden, und zur gleichen Zeit die Helligkeit verbessern kann detaillierter erholen, ist der Unterschied zwischen zwei Fotos offensichtlich.
Eine weitere Reihe von Fotos zeigt, wie Pixel's Visual Core mit unterbelichteten und unebenen Effekten umgeht. Die Position der Kamera ist seitlich beleuchtet, was zu Unterbelichtung des Hausteils und zu starker Sonneneinstrahlung führt. Nach dem Pixel Visual Core wurden die Helligkeit und die Details des Hauses und des linken Laubs und Gartens verbessert, und das Abendlicht ist für das menschliche Auge angenehmer, die Details des Baumes unter der Hintergrundbeleuchtung wurden ebenfalls demonstriert.
Darüber hinaus sagte Google auch, dass mit dem Pixel Visual Core aktiviert ist, verbessert es auch die Pixel 2 Digital-Zoom-Funktionen, um das Zoomen der Fotos schärfer machen, die Details können mehr reserviert sein, schließlich Pixel 2, egal wie gut die Kamera ist, Auch weniger ist ein Teleobjektiv.
Der Vorteil von Anwendungen von Drittanbietern, die Pixel Visual Core aufrufen, besteht darin, dass Benutzer von Pixel 2 die Kamera nicht mehr für ein Foto aktivieren müssen. Öffnen Sie dann die App, um das Foto hochzuladen und direkt in die App hochzuladen.
Pixel Visual Core kann jedoch nur in Anwendungen von Drittanbietern verwendet werden und wird nicht in der Kamera von Pixel aufgerufen, da die native HDR + -Technologie zwar gut genug ist, Anwendungen von Drittanbietern jedoch nicht direkt verwendet werden können Ein Teil der Rolle von Core besteht darin, Anwendungsrechte Dritter zu gewähren.
Darüber hinaus, obwohl einige Leute die native Kamera auf Pixel 2 ändern, so dass andere Handys können Google HDR + genießen, aber die beste Kamera immer noch mit Pixel 2 erreicht werden kann.
Aber angesichts von Pixel kann ich nur sagen, dass man das System wirklich kauft, um Handy zu senden ... richtig.