Seit einigen Monaten schwirren mir immer wieder die Begriffe IPTV und DVB-(S/T) durch den Kopf, ohne dass ich sie richtig zuordnen konnte. Das einzigste was ich mir anfänglich dabei dachte, war dass IPTV die direkte Konkurrenz zu DVB-(T/S) ist, so wie W-LAN zu UMTS im Mobilfunksektor. Doch nach einigen Recherchen ist mir aufgefallen, dass Devices (Geräte) mit IPTV evtl. nicht ohne DVB können, so wie Devices mit W-LAN wegen ihrer geringen Reichweite nicht ohne UMTS können (um ein flächendeckendes Netz gewährleisten zu können). Keine der beiden Konkurrenztechniken haben eine alleinige Daseinsberechtigung, obwohl IPTV dem Zuschauer auf dem ersten Blick einiges mehr bieten kann, wie z.B. Timeshifting, Video-on-Demand usw. als DVB. Jedoch stösst IPTV bei Übertragungen von Großveranstaltung (z.B. die Fussball-WM) wegen der vielen Zuschauer an seine technischen Grenzen. Das liegt hauptsächlich daran, dass IPTV dem Zuschauer eine Datenrate von 6-16 Mbit/s garantiert und solch eine Belastung hält kein Weitbereichsnetz (WAN) lange aus.
An einer Lösung dieses Problems arbeiten im Moment Studenten des Studiengangs Computer Engineering der Hochschule Furtwangen. Sie versuchen die DVB-Signale in Ethernet-Signale umzuwandeln um diese Daten anschliessend an den Netzwerkfernseher oder PC zu streamen. Somit würde dem Fernseh/Filmgenuss aus einem Kabel nichts im Wege stehen und der Zuschauer kann weiterhin auf die Features von IPTV zurückgreifen. Eins muss uns Medienentwickler im Klaren sein, den Zuschauer interessiert sich nicht wie es funktioniert, sondern dass es funktioniert. Und in diesem Bereich gibt es noch einige neue Geschäfsfelder zu erobern (Vision: Medien- und Kommunikationszentrale im Keller).
Nach einer Woche rumtüffteln mit meiner Webcam, habe ich es endlich geschafft, dass man mittels Webcam durch ein Menü navigieren kann. Die Grundlage der Personenextrahierung aus dem Webcambild stammt von dem Webcam Motion Detection Tutorial von Guy Watson, welches ich auf meine Bedürfnisse umgeschrieben habe. Das heisst der User erstellt ein Webcam Snapshot (er darf sich dabei nicht im Webcam-Bildbereich befinden) von seiner Umgebung. Somit erhalte ich alle Bildinformationen von seinem Hintergrund, die ich dann von dem jeweiligen aktuellen Bild (Frame) subtrahiere. Dieser Vorgang bewirkt, dass alle Pixel, die sich nicht verändern haben ein Ergebnis von Null zurückliefern (einen schwarzen Pixel). Alles was schwarz ist ist somit unaktiv, jedoch wenn ein Bereich zu z.B. 80% aus nicht schwarzen Pixel besteht, kann man davon ausgehen, dass dieser Bereich aktiv ist und eine Aktion kann ausgeführt werden.
Dieses Verfahren mittels Referenzbilderzeugung und Subtraktion funktioniert bisher ganz gut, jedoch stösst es bei Beleuchtungsänderung und bei Bildänderung durch die Automatik der Webcam an seine Grenzen. Bei solch einer Situation hilft nur noch die Erstellung eines neues Referenzbildes (Bei meinem Experiment durch den restart-Button möglich).
-- UPDATE 17.06.2007 --
Die CamButton Klasse wurde in Sachen Anwenderfreundlichkeit und erweiterte Funktionalität überarbeitet, so dass ihr diese Klasse sehr einfach für eure eigenen Experimente einsetzen könnt. Den Download gibt es unter Interactive Webcam Package mit ausführlicher Doku und Beispielcode zum leichteren Einstieg.
mehr zu der Thematik findet man noch in 2 Threads. Thread 1 und Thread 2 aus dem Flashforum
Desweiteren versorgt Intel die OpenSource Gemeinde mit einer kostenlosen C++ Bibliothek im Bereich Bildverarbeitung mit dem Namen Open CV. Die Bibliothek soll unter anderem Gesichts- und Gestenerkennungen beherrschen und noch einiges mehr. Für die C++ Programmierer auf jeden Fall mal ein Klick wert!
Auch das MIT ist in diesem Bereich akiv. Ziel ist die Erstellung komfortabler Werkzeuge für die Entwicklung interaktive Grafikanwendungen basiert auf visuellen Kamerasignalen.
-- UPDATE 19.12.2006 --
Auch meine vorherige Hochschule (FH Wiesbaden) ist in diesem Bereich mittlerweile aktiv geworden. Einige interessante Projekte (AR-Arcanoid, AR-Soccer) unter der Leitung von Prof. Schwanecke. Auf seiner Seite gibt es unter dem Fach Computergrafik Vertiefung noch mehr Infos zum Thema VideoMotionDetection in Kombination mit 3D Umgebungen!
-- UPDATE 11.03.2007 -- BodyPong, ein nettes Webcamspiel, das man zu zweit spielen kann. Entstanden mit der Flash Technologie und dem hier bereits erwähnten EyesWeb-Framework
-- UPDATE 17.04.2007 --
Mit Flashfilterlab.com lassen sich ganz ohne Programmierkenntnisse Webcaminteraktion realisieren. Die GUI-Oberfläche von Flashfilterlab ähnelt sehr stark dem Prinzipien von MaxMSP/Jitter. Auf der Inertnetseite kann man das Ganze auch mal testen! Bin überrascht von der Perfomance im Browser.
Jeder hat sie schon mal gesehen. Die neuen kamerabasierten Computerspielen, wo sich Menschen komisch vor den Fernseher bewegen. Die Spiele benötigen keinen Fremdkörper (Controller) mehr zum Steuern, es wird nur noch eine Kamera benötigt und den eigenen Körper zum Steuern. Das Ersetzen des Controllers durch den eigenen Körper erhöht das Gamefeeling merklich und entwickelt sich sogar langsam zu gesellschaftsfähigen Computerspielen (z.B. auf Partys). Solche Spiele sind seit einigen Monaten nicht mehr nur auf Spielkonsolen beschränkt, der neuste Trend sind Webcam Spielchen direkt im Internet. Grant Skinner dreht in dieser Richtung total ab. Seine Fluid Dynamics sehen einfach nur flashig aus. Besonders interessant für Interaktive Medieninstallationen. Bei seinem DrumKit wird der User zum Drummer, bei Fluid Game muss der User leuchtende Strahlen in einen Container lenken. Überhaupt checkt mal seine Gallery Incomplete aus und lasst euch von seinen Webcam Experimenten berauschen. Aber auch andere sind in diesem Bereich sehr aktiv, so habe ich z.B. vor einiger Zeit ein Webcam Mini Piano gefunden, doch leider hab ich den Link zu den Jungs verloren. ARGGHH.
Begeistert von den Möglichkeiten dachte ich mir, hm, sowas wäre doch auch eine nette Navigation für eine Website a la Minority Report. Scheissendreck, so einfach ist das nämlich nicht. Man muss erstmal wissen, wie man die Person und die Bewegung aus dem Bild herausfiltert. In dieser Richtung gibt das Webcam Motion Detection Tutorial von Guy Watson ein sehr gute Einführung. Doch leider reicht die Qualität der Erkennung noch nicht aus um ähnliche Spiele wie von Grant Skinner zu produzieren (es werden nicht wirklich gute Formen erzeugt um eine ordentliche Kollisionserkennung durchführen zu können). Ich denke eine Kombination von Erosionen und Dilatationen (aus dem Bereich Image Processing) könnten evtl. noch bessere Formen erzeugen und so den Menschen aus dem Bild herausextrahieren. Aber sicher bin ich mir da nicht. Das sind aber nicht die einzigsten Probleme, die es zu beachten gibt. Ein wirklich gutes Funktionieren dieser Webcam Spielchen hängt unter anderem massgeblich von der Qualität der Webcam und den Lichtverhältnissen im Raum des Users ab (Grant Skinner hat bei seinen Beispielen immer einen einfarbigen Hintergrund, das erleichtert die Extrahierung des Users merklich). Im Web habe ich bisher leider noch nichts wirklich brauchbares zu diesen Problematiken gefunden und Grant Skinner hält sich auch sehr bedeckt in seinem Blog, wie er bei der Objekterkennung vorgegangen ist. Für Hinweise bin ich euch immer sehr dankbar.
Chris Crawford war ein Game Designer der ersten Stunden und gründete die Computer Games Developer Conference. Seit 1992 zog er sich aus der Game Industrie zurück und beschäftigt sich seitdem mit dem Thema Interactive Storytelling.
1. Einführung: Geschichte und Motivation von Interactive Storytelling. Gibt einen Unwissenden in dieser Thematik eine sehr gute Basis um das Prinzip des Interactive Storytelling zu verstehen.
2. Styles of Thinking: Crawford ist der Meinung, dass die Ereignisse in einer Story abstrahiert werden müssen und dass man auf die Verben (beschreibt die einzelnen Handlungen in der Story) in der Story besonders achten soll. Es taucht immer wieder der Satz "Thinking in Verbs" auf.
3. Strategies of Interactive Storytelling befasst sich mit der Bedeutung (Semantic) der Story-Ereignisse und wie die Game Industrie uns bisher in Sachen Interactive Storytelling an der Nase herum geführt hat.
4. Core Technologies widmet sich den Thema der Datenverwaltung, welche Informationen werden benötigt (Charakter Beschreibung, Umgebungsbeschreibung usw.) um eine semantisch korrekte Geschichte produzieren zu können. Wie wird Spannung erzeugt und kontrolliert (Stichwort: Drama Manager) und noch vieles mehr. Zu einigen Punkten macht Crawford jedoch nur Vorschläge, denn die goldene Lösung hat er auch nicht parat.
5. Applications: In diesem letzten Kapitel stellt Crawford seine StoryEngine (The Erasmatron) vor, sowie einige
Forschungsergebnisse im Bereich Interactive Storytelling. Dieses Kapitel gibt den Leser auf jeden Fall einen guten Überlick, wie es im Moment mit der Misson Interactive Storytelling aussieht und wie es in Zukungt aussehen könnte.
Fazit: Das Buch ist sehr empfehlenswert und hilfreich für die Entwicklung einer eigenen Story-Engine, da einige Ansätze wirklich sehr gut sind (z.B. wie man mit dem Dilema der Interaktivität und den Plot Points umgehen könnte). Nur leider vergreift sich der gute Crawford des öfteren mal im Ton und greift immer wieder die Game Entwickler an und ist auch von seinen Ansichten sehr sehr überzeugt. Also das Buch bitte mit einem kritischen Blick lesen. Das englische Sprachniveau ist für jeden mit einem Wörterbuch bewaffnet (oder leo halt) zu schaffen. Ist alles sehr umgangssprachlich und verständlich geschrieben.
Ricard Marxer (ricardmarxer.com) ein Digital Artist aus Barcelona befasst sich mit computergenerierter Kalligrafie und wollte eine neue Präsentationsform für Text schaffen. Mit Erfolg! Die erzeugten Kalligrafien reagieren zum Teil auch noch mit dem User (interaktiv). Also auf jeden Fall sehr interessant für den Bereich textbasierte Motion Graphics im Webdesign und im interaktiven Film.
Technisch umgesetzt wurde das ganze mit der Programmiersprache PROCESSING, die speziell für Digital Artists entwickelt wurde. Aehnelt aber sehr stark der JAVA Syntax. Aber jetzt Schluss mit Gelabber. Checkts selbst ab Caligraft
Das Titelthema der aktuellen PAGE (10/06) befasst sich mit den neuen Webtrends, die das Internet immoment in neuen Glanz erscheinen lässt.
Big Budgets: Die Kunden sind immer risikofreudiger geworden und investieren immer Geld in seine Webplattform. Dadurch steigt zum Teil die Qualität und die Unterhaltung der Website erheblich (Beispiel: whoperettes)
Interaktives Video: hat mittlerweile alles was das Fernseh auch bietet und noch viel mehr. Endlich kann der User mitbestimmen was im Video passieren soll. (Beispiel: mini cooper)
Dynamische Interfaces: Die Navigation wird immer intuitiver und auch zum Teil spielerischer. Das kommt bei Jung (spielerisch) und Alt (intuitiv) sehr gut an. (Beispiel:etsy)
Integrierte Kampagnen: Webdesign ist nicht mehr länger ein Abklatsch des Corporate Design. Es passt sich immer der jeweiligen medienübergreifende Werbekampagne an und präsentiert sich somit einheitlich nach aussen.
User-generierte Inhalte: der User identifiziert sich mit einem Thema und kann seinen Teil dazu beitragen und wird somit auch ein Teil dieses Thema(oder besser Community).
kreative Technologien: Der Aufbau einer Webseite wird immer modularer durch Techniken wie HTML (Strukturierung des Inhaltes), CSS (Design des Inhaltes), Mash UPs (z.B. von YouTube) usw. Das macht die Webentwicklung im Gesamten einfacher wartbar und erweiterbar.
Webdesign sprengt seine Grenzen: Mittlerweile laufen z.B. Flash Anwendungen schon auf dem Handy, Playstation Portable (PSP) usw.
Also schaut mal rein in die aktuelle PAGE. Ein guter kleiner Orientierungsbericht für auch noch in Zukunft erfolgreiche Webentwickler 😉
In der innoVisions (Ein Zukunfstmagazin vom Fraunhofer Institut) bin ich auf einen interessanten Artikel gestossen.
Das ZGDV aus Darmstadt hat einen Story-Editor (Autorenumgebung) für Interactive Storytelling entwickelt. Das System basiert auf Muster-Templates. Die Geschichten werden dann im ICML (INSCAPE Communication Markup Language) Beschreibungsformat gespeichert. Das Tolle daran ist, das die Story in mehreren Plattformen wie z.B. Flash, Blender usw. abgespielt werden kann. Das ist durch die PlugIn-Programmierung ermöglicht worden, so muss man auch nicht seine Entwicklungsplattform verlassen. Sehr guter Ansatz find dich.
Es soweit, derhess.de ist online und steigt auch in das WEB 2.0 Zeitalter ein. Kommentare zu den Blogs gibt es aus SPAM Gründen bei mir nicht. Wenn trotzdem Interesse an meiner Arbeit besteht, schreibt mir eine Email (im Kontaktbereich). In meinem Blog werde ich mich hauptsächlich den Themen Flashprogrammierung, Interactive Storytelling und der Mensch-Maschine Schnittstelle widmen. Das wars dann von mir...