Multimedia
Sony-Tech von morgen – neue Displays und Kino-Kameras
Teile der Sony Technology Exchange Fair (STEF) waren heuer erstmals Medien zugänglich. Dort stellte das Unternehmen Technik der Zukunft vor.
An was wird hinter den Kulissen eines großen Technologie-Unternehmens gearbeitet und geforscht? Die Antwort auf diese Frage ist der Traum vieler Tech-Fans – und Sony ließ sich heuer erstmals in die Karten blicken. So wurden Teile der Sony Technology Exchange Fair (STEF) für Medien und Öffentlichkeit online zugänglich gemacht. Eines der großen Themenfelder: 3D-, AR- und VR-Displays. Neben zahlreichen Prototypen liegt ein Hauptaugenmerk auf den Formfaktoren von und Materialien für Displays. So könnten Micro-LED-Displays und Wellenleiter aus Kunststoff statt aus Glas kommen.
Ganz neue Display-Formen werden möglich
Das würde es ermöglichen, gebogenere und geschwungenere Formfaktoren anzubieten, fast so wie man sie von herkömmlichen Brillen und Sonnenbrillen kennt. Gleichzeitig würden Micro-LEDs für eine stromsparendere Nutzung bei insgesamt leuchtstärkeren Anzeigen sorgen. Im VR-Bereich dreht sich die Forschung wiederum um OLED-Micro-Displays samt Flüssigkristallen, die bereits in den kommenden Jahren die bisherigen LC-Displays ersetzen könnten. Flüssigkristalllinsen wiederum könnten ein natürlicheres Fokussieren in der Virtuellen Realität erlauben.
Publikums-Reaktionen könnten Content bestimmen
Für Aufsehen sorgt wiederum, was bald in den Kinos Einzug halten könnte. So werkelt man an der Viewing Expertience Technologie. Dazu filmen Kameras die Gesichter des Publikums, etwa im Rahmen von Kinovorstellungen, mit, während die Reaktionen und die Mimik von einer Künstlichen Intelligenz analysiert werden. Optional ließe sich das sogar um Gerätschaften wie Mikrofone oder Pulsmessgeräte erweitern, um mehr Daten dazu bekommen, wann Zuseher sich freuen, fürchten oder konzentrieren. Der Sinn: Inhalte könnten besser auf die Konsumenten zugeschnitten werden, egal ob Film, Musik oder Videospiel. Bei Musik gibt es ein Messinstrument des Musikgeschmacks bereits dem Tool Grooveforce.
Programme können selbst Inhalte schaffen
Bald aber könnte nicht nur die Reaktion der Nutzer analysiert werden, sondern Inhalte schon im Vorhinein auf die Nutzer abgestimmt werden. Beeindruckendstes Beispiel dafür ist bisher das Algorithmus-Projekt "Deep Generative Models". Vereinfacht können diese nicht nur Content wie Bilder, Musik und Filme analysieren und verbessern, sondern sogar generieren. Neben den Entfernen von ungewünschten Objekten aus Fotos oder von Gesprächsfetzen aus Audioaufnahmen könnten die Algorithmen auch ganz eigene Bild-, Film- und Musikwerke schaffen. Zum Teil passiert das bereits auch schon, etwa mit dem Programm Mapray, das aus Fotos und Satellitendaten digitale Abbilder ganzer Städte schafft.