Freitag, 27. Juli 2012

Wanderatlas Deutschland informiert (Juli 2012)

Auf dem Leonhard-Hörpel-Weg
Hallo liebe Wanderfreunde,

auch wenn der Sommer 2012 etwas sehr sprunghaft ist, möchten wir euch natürlich wieder drei Wandertipps geben, um den nächsten Ausflug in die Natur zu planen.

Heute haben wir Routen ausgewählt, die nach Persönlichkeiten benannt sind, und zwar Persönlichkeiten, die vor Ort einen wesentlichen Einfluss für die Wanderbewegung genommen haben. Damit erinnern wir an einen ganz wichtigen Fakt: Dass es in Deutschland rund 400.000km markierte Wanderwege gibt - etwa doppelt so viel wie das gesamte Straßennetz - liegt zu großen Teilen an dem ehrenamtlichen Engagement von Wanderern und Heimatforschern vor Ort.

Wir sagen daher Danke mit dieser Auswahl an Wandertouren:
  • die erste Wanderung führt uns an den Knoten (605m) im Westerwald. Hier wurde 2012 der Leonhard-Hörpel-Weg (15km) eröffnet. Leonhard Hörpel (1884-1954) war ein Heimatforscher, der im Greifensteiner Land und dem Hessischen Westerwald arbeitet. Die Tour führt u.a. zum Nenderother Wasserfall und durch die Heidelandschaften am Knoten
  • am Nordostrand des Bergischen Lands führt der Fritz-Golte-Weg (16km) ins Muttental, der Keimzelle des Bergbaus im Ruhrgebiet. Fritz Golte (1848-1935) hat sich im Ortsverein des SGV maßgeblich für die Einrichtung des örtlichen Wegenetzes verdient gemacht. Der Fritz-Golte-Weg ist ein spannender Ausflug in die Geschichte des Ruhrgebiets und absolut empfehlenswert
  • der dritte Tipp führt ins Siegerland. Hier hat sich der 1930 geborene Erich Reinschmidt 25 Jahre lang als Vorsitzender des Wandervereins in Deuz ehrenamtlich engagiert. Der 2010 eröffnete Erich-Reinschmidt-Weg (10km) startet am sehenswerten Deuzer Kleinbahnhof

Ein Stück Heimatgeschichte kann man übrigens von Freitag (27. Juli) bis Sonntag (5. August) in der Kroppacher Schweiz erleben. Nach vier Jahren steigt in Müschenbach wieder das traditionelle Meilerfest mit buntem Programm rund um den dampfenden Kohlemeiler. Informationen zum Fest könnt ihr hier einsehen. Wer einen Besuch des Festes mit einer kleinen Wanderung verbinden möchte: Wanderführer Rudi Strauch hat speziell fürs Meilerfest eine kleine Rundwanderung (4km) ausgearbeitet, die er am Donnerstag (2. August) auch persönlich leitet.

Als GPS Wanderweg des Monats werden wir im Juli den Ederhöhenweg vorstellen. Er führt von der Quelle am Ederbruch über 234km bis zur Mündung in die Weser. Am Weg liegen u.a. Frankenberg, der Edersee und Fritzlar.

Wie immer zum Schluss der Hinweis: Wir freuen uns auf neue Follower bei Twitter und Freunde bei Facebook. Und möchten natürlich daran erinnern, dass ihr alle herzlich eingeladen seid, selbst Wanderungen im GPS Wanderatlas zu veröffentlichen.

Viel Spaß beim Wandern wünscht euch das
Team vom GPS Wanderatlas Deutschland

Kaiser-Otto-Weg (X16) ist GPS Wanderweg des Monats Juli 2012

Pilgerkirche Schwalefeld
Die GPS Wanderatlas Redaktion hat sich entschieden: Der Kaiser-Otto-Weg wird als GPS Wanderweg des Monats im Juli vorgestellt. Zur Veröffentlichung des Wegs, der in vier Tagesetappen gewandert werden kann, wurde folgende Pressemitteilung veröffentlicht.

Beim Wandern Geschichte lernen: Otto der Große im Sauerland
Durchs nördliche Sauerland auf dem Hauptwanderweg 16


(Beselich, 27. Juli 2012). Woran denken Sie, wenn Sie von Otto, dem Großen hören? Otto Rehhagel? Otto von Bismarck? Otto Waalkes? Es gibt da noch einen Otto, der historisch gesehen deutlich wichtiger war. Otto I., Herzog von Sachsen, König des Ostfrankenreichs und erster Kaiser des Heiligen Römischen Reichs deutscher Nation, das von 962 bis 1806 die Geschicke Europas wesentlich beeinflusste.

Auch im Sauerland wirkte Otto der Große. Wenn man überspitzt formulieren will könnte man sagen: Ohne Otto den Großen wäre Meschede nicht Kreisstadt des Hochsauerlandkreises, gäbe es den Olsberger Stadtteil Brunskappel nicht. Und in Marsberg entschied sich der Reichsaufstand gegen Otto durch einen gezielten Speerwurf in die Brust seines Herausforderers.

Es gibt also gute Gründe, dass der Sauerländische Gebirgsverein seinen Hauptwanderweg X16 nach Otto dem Großen benannt hat. Der Kaiser-Otto-Weg führt von Meschede über die Winterberger Hochfläche und das Upland nach Marsberg. 86km, die neben interessanten Geschichtsdetails vor allem wunderschöne Sauerland-Landschaften bereithalten.

Vorbei an der St. Walburga Kirche in Meschede leitet der Kaiser-Otto-Weg zunächst ins Hochsauerländer Schluchtgebirge und passiert die Plästerlegge, den höchsten natürlichen Wasserfall in NRW. Von hier geht es hinauf auf die größte zusammenhängende Hochheide Deutschlands, den Neuen Hagen am Clemensberg (839m).

Über Willingen führt der Kaiser-Otto-Weg durchs Upland und stattet dabei auch der Pilgerkirche in Schwalefeld einen Besuch ab. Die romanischen Kirchen von Schweinsbühl und Adorf stimmen einen schließlich auf das historische Obermarsberg ein. Hier soll einst das Heiligtum der Sachsen – die Irminsul – gestanden haben. Karl der Große schlug die Sachsen hier, gründete ein Kloster und führte das Christentum ein. Später kam es in der Klosterkirche zum Showdown zwischen Otto dem Großen und seinem Halbbruder Thankmar, der ihm die Krone streitig machte.

Der Kaiser-Otto-Weg wird ab heute (27. Juli) in vier Tagesetappen als GPS Wanderweg des Monats im GPS Wanderatlas Deutschland vorgestellt. Für den Gesamtweg und die einzelnen Tagestouren werden kostenfrei die aktuellen Wegdaten in Form von GPX-Dateien für mobile Navigationsgeräte bereit gehalten.

Der GPS Wanderatlas Deutschland ist ein redaktionelles Angebot, das sich speziell an den Bedürfnissen von Wanderern, Tagesgästen und Ausflugstouristen orientiert. Wer kurzfristig etwas in der Region unternehmen möchte, findet im GPS Wanderatlas Deutschland eine sehr fein gegliederte und praktische Planungshilfe.

Der GPS Wanderatlas Deutschland ist ein Produkt der Wanderatlas Verlag GmbH mit Sitz in Beselich bei Limburg. Das Unternehmen wurde im April 2010 gegründet, um Tagestouristen und Wanderer überregional und unabhängig mit Informationen für Touren, Ausflugsziele und Sehenswürdigkeiten zu versorgen. Aktuell gibt es den GPS Wanderatlas für die Wandergebiete Sauerland, Westerwald, Taunus, Oberhessen und Bergisches Land.

Montag, 23. Juli 2012

Cross Media Marketing

Haben wir uns bislang zentral mit der Frage beschäftigt, wie man Inhalte in verschiedenen Medien veröffentlicht und dabei zentral die Verlagsbranche und die verlagsähnlichen Aufgaben innerhalb von Unternehmen anderer Couleur (Katalogerstellung, Dokumentation etc.) vor Augen gehabt, erweitern wir jetzt die Perspektive und schauen uns die Gesamtheit der Unternehmen an. Diese stehen alle vor der Aufgabe, mit ihren Umwelten – Kunden, Lieferanten, Mitarbeiter, der Öffentlichkeit etc. – in Kontakt zu treten. Dafür setzen sie instrumentalisiert – also zweckgerichtet – im Rahmen ihrer Marketingstrategie Unternehmenskommunikation ein.

Egal, ob es sich um einen freiberuflichen Patentanwalt, den Kioskbetreiber in der Nachbarschaft, einen Handwerksbetrieb, den mittelständischen Werkzeugbauer, eine Bank oder den multinationalen Chemiekonzern handelt: Jede Unternehmung (also auch die Einmann-Unternehmung, die man ja schwerlich als Unternehmen im Sinne einer Organisation des Wirtschaftssystems bezeichnen kann) hat eine Strategie und betreibt Unternehmenskommunikation. Darüber sind sich die Unternehmen nicht immer im Klaren. Aber auch ohne niedergeschriebenes Strategiepapier und eine eigene Abteilung für Kommunikation bzw. die Zusammenarbeit mit einer Agentur orientiert ein Unternehmen seinen Auftritt im Markt an wenn auch nur nebulösen Zielvorstellungen und es findet ständig Kontakt mit Kunden, Lieferanten und meist auch Mitarbeitern statt. Strategie und Unternehmenskommunikation sind quasi konstituierende Elemente für ein Unternehmen so wie es Liquidität und die Beantragung einer Steuernummer ist.

Der instrumentalisierte Einsatz von Kommunikation zur Erreichung der unternehmerischen Ziele – also in erster Linie Profit zu machen – lässt sich grundlegend in vier Bereiche einteilen:
  • Werbung im Sinne (massen-)medial vermittelter Kommunikationsangebote, die sich an potenzielle Kunden (Markt) richten und Aufmerksamkeit für das Unternehmen und seine Produkte schaffen soll
  • Direktansprache im Sinne personalisierter Kommunikationsangebote, die sich an potenzielle Kunden (Markt) richten und Bindung an das Unternehmen und seine Produkte schaffen soll
  • Public Relations im Sinne (massen-)medial vermittelter Kommunikationsangebote, die sich an die Öffentlichkeit richten und Transparenz für das Unternehmen und seine Produkte schaffen soll
  • Social Relations im Sinne medial vermittelter und personalisierter Kommunikationsangebote, die sich an spezielle Gruppen der Öffentlichkeit (Stakeholders) richten und Unterstützung für das Unternehmen und seine Produkte schaffen soll
Wie auch immer diese Instrumente eingesetzt werden – spontan oder geplant: Widersprüche in der Kommunikation führen ganz offensichtlich zu einem niedrigen Wirkungsgrad etwa indem dem Gesamtunternehmen mangelnde Glaubwürdigkeit unterstellt wird oder indem durch Widersprüche erhöhte Informationskosten auf Seiten der Zielgruppen entstehen.

Daraus leitet sich in der Betriebswirtschaft das Postulat der integrierten Unternehmenskommunikation ab, wobei darunter ein Prozess verstanden wird, dessen Ziel es ist, auch beim Einsatz unterschiedlicher Medien und Kommunikationsmittel ein einheitliches Erscheinungsbild bei den Zielgruppen zu erzeugen .

Speziell durch die Entwicklung neuer Kommunikationsmittel und Medien im Zuge der Digitalisierung, entsteht zugleich stärker der Bedarf nach dem parallelen Einsatz verschiedener Kampagnenformate. War es in den 1970er Jahren für einen Konsumgüterhersteller meist ausreichend, TV-Spots, Plakate und Zeitschriftenanzeigen zu kombinieren und dabei lediglich durch Claims, Key Visuals etc. sicherzustellen, dass sich diese beiden Kommunikationsmittel nicht widersprechen, sondern idealerweise ergänzen, werden heute Kampagnen immer regelmäßiger durch Webseiten oder Angebote in sozialen Netzwerken, Events oder Direktmarketingmaßnahmen ergänzt bzw. werden von Anfang als Cross Media Kampagne geplant, wobei die einzelnen bespielte Kanäle jeweils eigene Funktionen zugewiesen werden. Cross Media Marketing ist daher eine Methode, mit der man ein einheitliches Marketingziel durch den Einsatz verschiedener Medien und Kommunikationsmittel zu optimieren versucht.

Die Hauptaufgabe im Cross Media Marketing ist dabei nicht neu. Wird beispielsweise eine Werbekampagne geplant, ist im Rahmen der Mediaselektion die Bestimmung des Media Mix eine zentrale Anforderung der Budget-Allokation. Im Media Mix müssen dabei zumindest zwei Entscheidungsebenen berücksichtigt werden, die Intermediaselektion oder Mediengattungswahl und die Intramediaselektion oder Belegungswahl . Die relevanten Bezugsgrößen bei der Festlegung des Media Mix sind dabei immer die Zahl der erreichbaren Personen und die Kontaktqualität.

Was sich bei der Orchestrierung der Kommunikationsmittel zu einer integrierten Kampagne vor allem seit der Jahrtausendwende abzeichnet, ist der stärkere Einsatz von Response-Elementen und damit die Aufforderung zum Dialog durch Einbindung von Webangeboten. Das macht die Gesamtplanung komplexer, soll im Ergebnis aber zu einer höheren Effektivität (Wirksamkeit) führen, denn anders als bei einem Fernsehspot oder einer Anzeige ist der Raum für Kommunikation bei Webangeboten kein begrenzender Faktor. Man kann im Internet problemlos ein Thema bis hin zum Expertenwissen vertiefen oder auch ganze Erlebniswelten erschaffen.

Als Kommunikationsmittel im Media Mix ist die Anbindung solcher dialogfördernder Kommunikationsmittel erst dann ein eigenständiger Teil der Kampagne, wenn die entsprechenden Angebote direkt mit den anderen Werbemitteln – z.B. dem TV-Spot – inhaltlich verbunden sind. Die Angabe der Homepage-Adresse stellt keine Verzahnung dar, sondern entspricht eher wie eine Adresse einem statischen Datenbestand.

Wird eine Dialogseite mit in die Kampagne integriert, sind sogenannte Landing Pages notwendig. Anders als die Homepage eines Unternehmens, die häufig wie ein Portal in die verschiedenen Themenbereiche – Produkte, Stellenangebote, Investor Relations, Presse, Support etc. – leitet, greift die Landing Page als Teil der Kampagne die zentralen Elemente der Copy-Strategie auf und versucht so, die Erwartung des Seitenbesuchers zu treffen (Erwartungskonformität). Unter Copy Strategie wird die Kreativkonzeption einer Kampagne verstanden, die auf der Positionierung des Angebots (Leistung) und den angesprochenen Zielgruppen (Markt) basiert und daraus die Elemente der Kampagne ableitet :
  • Consumer Benefit, der Nutzen, den die Zielgruppe (der Kunde) erwarten kann
  • Reason Why, die Begründung, warum dies durch das spezielle Angebot erfüllt wird
  • Tonalität, der Kommunikationsstil, in dem die Zielgruppe angesprochen wird
  • Claim, die zentrale Aussage in verdichteter Form
Diese Elemente sollten in der Landing Page kongruent aufgegriffen werden. Empfohlen wird dabei auch explizit die Ausblendung üblicher Navigationselemente, um den Besucher der Landing Page auf eine möglichst präzise Aktion hin zu fokussieren, etwa das Nachlesen von zusätzlichen Produktinformationen oder Anschauen weiterer nicht gesendeter Spots (User Involvement), das Durchrechnen eines Kredits oder die Gestaltung einer Küchenzeile (Personalization), die Anforderung von Informationen oder Vereinbarung einer Probefahrt (Lead Generation), den Kauf eines Produkts (Transaction), die Bewertung eines Angebots (Social Recommendation) oder die Einbringung eigener Inhalte z.B. in der Verwendung des Produkts (User Generated Content).

Um Landing Pages in die Kommunikationsmittel der Kampagne zu integrieren, ist ein operatives Problem zu lösen: Wie kommuniziert man die URL der Landing Page? Dafür hat sich zunächst in Japan ab 2003 das Mobile Tagging entwickelt, das seit 2007 auch in Deutschland zum Einsatz kommt. Kernstück des Mobile Tagging ist ein zweidimensionaler Code, der Daten in Strichen und Punkten darstellt und mit einem Scanner oder der Kamera eines Mobiltelefons erfasst und ausgelesen werden kann. Bekannt ist vor allem der 1994 von Denso Corporation entwickelte QR-Code, der bis zu 4.296 alphanumerische Zeichen codieren kann – und damit auch lange URLs mit entsprechenden Aktionscodes.

Die Nutzung von QR-Codes ist Cross Media par excellence: Mit dem Mobiltelefon scannt man den Code von einer Printanzeige und öffnet dadurch eine Landing Page, die möglicherweise den aktuellen TV-Spot als Clip beinhaltet. Speziell auf Printmedien oder auch direkt auf Produkten sind QR-Codes eine sehr geeignete Maßnahme, um nicht nur den Nutzer zur richtigen – in dem Fall für mobile Browser optimierten – Landing Page zu führen, sondern auch erweiterte Informationen über den Besucher zu erhalten, etwa von welchem Kommunikationsmittel (Anzeige in Stern, Focus oder Spiegel, Plakatwand in Düsseldorf, Flyer der Messe in Berlin etc.) der Nutzer auf die Landing Page geleitet wird. Das erlaubt wesentliche Rückschlüsse in der Erfolgsmessung und Erkenntnisse zur Optimierung von Kommunikationsaktivitäten.

Mittlerweile ist es auch möglich, die maschinenlesbaren QR-Codes grafisch zu gestalten und einen Custom QR-Code mit Logo, Schriftzug, Domainname etc. auszustatten. Zwar ist die tatsächliche Nutzung von QR-Codes noch gering – in den USA wurde im Juni 2011 ermittelt, dass rund 14 Mio. bzw. 6% aller Mobiltelefonnutzer in den USA QR-Codes nutzen . Der QR-Code Service Provider 3GVision geht für Japan dagegen von 75% aller Nutzer aus  und interpoliert die weltweite Nutzung von QR-Codes von 2009 bis 2011 mit einem Wachstum von 1.365% hoch. Diese Zahlen sind nicht belastbar, spiegeln aber einen gewissen Trend.

Cross Media Publishing
Single Source Publishing
Content Pooling
Multi Channel Publishing
Cross Media Marketing
App Times

Sonntag, 22. Juli 2012

Multi Channel Publishing

Als dritte Strategieoption im Cross Media Publishing kann man sich für Multi Channel Publishing entscheiden. Darunter ist zu verstehen, dass ein verlegerisches Objekt – die Marke – in verschiedenen Medien jeweils eigenständig inhaltlich ausgestaltet wird. 

Multi Channel Publishing führt üblicherweise zu einer klassischen Markenfamilienstrategie, wie dies in der Spiegel- oder der BILD-Gruppe zu beobachten ist. Dabei werden die Vorteile einer starken Einzelmarke (Spiegel) mit den Vorteilen einer Dachmarke verbunden, in dem jedes einzelne Markenfamilienmitglied auf den gemeinsamen Markenwert einzahlt. Basis einer erfolgreichen Markenfamilie ist der Markenkern, an dem sich alle zur Familie gehörenden Einzelmarken orientieren müssen.

Eine Marke generalisiert als Symbol verschiedene Eigenschaften, die dem markierten Produkt zugesprochen werden, und ist damit selbst ein Kommunikationsmittel. Eine Marke konstituiert sich im Wesentlichen durch drei Aspekte, die die Produktnutzer der Marke zuschreiben:

  • Qualität: Eigenschaften, die der Kernleistung des Produkts zugeordnet werden
  • Ubiquität: Eigenschaften, die der Verfügbarkeit des Produkts zugeordnet werden
  • Image: Eigenschaften, die dem erweiterten Nutzen des Produkts zugeordnet werden
Daraus resultiert beim Aufbau einer Markenfamilie, dass sich der Markennachwuchs an den Standards für Qualität, Ubiquität und Image messen lassen muss, die die Kernmarke gesetzt hat. Hier liegt das Risiko und die Chance für die Markenfamilie: Gelingt das den Einzelmarken in der Familie, stärken alle Teile der Markenfamilie die Gesamtmarke. Gelingt dies nicht, färbt das mittelfristig auf die Kernmarke ab und schwächt diese.

Aus dieser kurzen Darlegung leitet sich ab, das Multi Channel die teuerste Strategieoption im Cross Media Publishing ist, denn man muss z.B. sicherstellen, dass das journalistische Niveau oder die Verlässlichkeit der Information einer neu eingeführten Teilmarke vom Start weg mit der Kernmarke vergleichbar ist und das führt zu hohen Markteinführungsinvestitionen. Gelingt es aber, wie in der BILD-Gruppe zu beobachten, unterstützen die einzelnen Marken sich untereinander und erwirtschaften einen Mehrwert für die Kernmarke.

Berichtet die BILD-Zeitung etwa über neue Sicherheitsrisiken im Internet, wird als Experte zumeist ein Kollege der ComputerBILD befragt. Bringt die BamS ein exklusives Politiker-Interview mit hohem Nachrichtenwert, greift das die BILD in ihrer Montagsausgabe auf. Und Online vermischen sich die Kompetenzfelder noch stärker in verschiedenen Themen-Channels.

Was bei Multi Channel– neben den Aspekten der Markenführung – zu beachten ist, ist natürlich ein gewisser organisatorischer Mehraufwand und die Regelung von möglichen Reibungspunkten. Wirft man einen Blick auf die Spiegel-Gruppe, kann man das gut nachvollziehen. Die ohnehin getrennten Redaktionen vom Spiegel und von Spiegel Online (SPON) sollen noch schärfer getrennt werden, weil man vermutet, dass die Printauflage deshalb sinkt, weil zu viele Texte auf SPON frei verfügbar sind . Dennoch scheint die Strategie richtig zu sein, denn Stand 2012 kann der Spiegel nach wie vor vermelden, dass der Spiegel das größte europäische Nachrichtenmagazin und SPON die führende Nachrichtenseite im deutschsprachigen Internet ist.

Cross Media Publishing
Single Source Publishing
Content Pooling
Multi Channel Publishing
Cross Media Marketing
App Times

Samstag, 21. Juli 2012

Content Pooling

Eine zweite Strategie zur Umsetzung von Cross Media Publishing ist Content Pooling. Hier steht nicht mehr der möglichst hohe Automatisierungsgrad bei der Erstellung von Medieninhalten für verschiedene Endgeräte im Fokus, sondern die gemeinsame Nutzung von Ressourcen. Dieses Modell wird klassisch in der Verlagswelt genutzt und hat seinen Ursprung in drei Themengebieten, die von Zeitungen und Zeitschriften seit über hundert Jahren genutzt werden. 

Zunächst ist das eigene Archiv zu nennen, das veröffentlichte Artikel thematisch ablegt und für spätere Recherchen vorhält. Dieses System wurde seit Mitte des 19. Jahrhunderts ergänzt durch die Entwicklung moderner Nachrichtenagenturen, die zentral Nachrichten erstellen und angeschlossenen Redaktionen zur Verfügung stellen. Und schließlich entwickelte sich seit dem Zweiten Weltkrieg immer stärker der Bereich der Stockfotografie, der Bildmaterial zur Illustration vorhält.


Speziell das Agenturwesen und die Bilddatenbanken basieren auf dem Grundprinzip, dass ein zentraler Dienstleister kostenintensive Arbeiten zentral erbringt und den Mitgliedsunternehmen so zur Verfügung stellt, dass jedes einzelne Unternehmen einen Kostenvorteil hat. Dieses Prinzip lässt sich natürlich auch nach innen in die Unternehmen übertragen. Besonders intensiv diskutiert wurde das in den letzten Jahren anhand der Zusammenführung der Redaktionen zu gemeinsamen Newsrooms. Dabei sind unter diesem Oberbegriff drei letztlich sehr unterschiedliche Methoden zu unterscheiden:
  • integrierter Newsroom: integriert die Redaktionen einer verlegerischen Einheit, z.B. Online und Print, aber auch Standardprodukt und Sonderveröffentlichung
  • rationalisierter Newsroom: führt vormals getrennte Redaktionen zu einer Zentralredaktion zusammen, üblicherweise, wenn ein Verlag mehrere Titel betreut und so Kosten sparen kann
  • qualitativer Newsroom: eine vor allem in den USA eingesetzte Methode, durch die Zusammenführung von unterschiedlichen Ressorts und Abteilungen eine Form des leserzentrierten Storytellings zu entwickeln
Integrierte Newsrooms entstehen durch die Zusammenführung von Redaktionen, die für unterschiedliche Medien bzw. Ausgabeformate arbeiten. Das kann klassisch neben der Tageszeitung ein magazinartiges Supplement oder eine Sonntagsausgabe, neben der Fernsehsendung ein Begleitmagazin sein oder in den letzten zehn Jahren insbesondere die Zusammenführung von Zeitungsredaktion und Onlineredaktion einer Verlagsmarke betreffen. In diesem Kontext entwickeln sich crossmedial gesehen zwei Tendenzen:
  • Online-First Approach: Das Internet rückt in den Fokus und die gedruckte Ausgabe wird quasi nebenbei produziert wie dies in Deutschland vor allem beim Axel Springer Verlag umgesetzt wird
  • Digitale Zweitverwertung: Das Printprodukt steht im Fokus – vor allem bei Büchern und Fachzeitschriften – und wird durch eine Paid Content Strategie zweitverwertet (so wie man das in Nachkriegsjahren im Buchmarkt vorexerzierte mit der Erstausgabe im festen Einband und einer Zweitverwertung über Taschenbücher)
Rationalisierte Newsrooms werden im Unterschied zu integrierten Newsrooms nicht durch Zusammenlegung von Parallelbetrieben einer Verlagsmarke gebildet, sondern durch redaktionelle Zusammenlegung von Medienangeboten, die unter eigener Marke bzw. als eigene Titel im Markt antreten. Daher werden sie in der Branche – häufig mit kritischem Unterton – auch als Industrialisierung der Medien interpretiert . Und tatsächlich kostete die Einführung einer Zentralredaktion bei Deutschland größter Regionalzeitungsgruppe WAZ schon zu Einführung rund ein Drittel der Redakteure ihren Job.

Während erstgenannte Umsetzungen im Wesentlichen der Steigerung der Effizienz dienen, kann ein Newsroom crossmedial auch zur Steigerung der Effektivität eingesetzt werden. Ein vor allem in den USA verbreiteter Ansatz ist das von Buck Ryan entwickelte Maestro Konzept, das im Kern auf der Idee beruht, dass die übliche Arbeitsteilung von Autor, Redakteur, Grafiker, Fotograf und Layouter nicht zum optimalen Ergebnis führt. Daher werden im qualitativ orientierten Newsroom ressortübergreifende Teams gebildet, die in einem strukturierten Prozess eine Geschichte nicht linear und iterativ über die Arbeitsschritte aufbauen, sondern versuchen die Lesererwartung schon bei der Konzeption zu berücksichtigen frei dem Motto: Together as a Team, Think Like the Reader.

Durch die interdisziplinäre Zusammensetzung anstatt dem Workflow-Ansatz, die strukturierte Moderation anstatt der starren Auftragsvergabe und die Konzentration auf die Frage, wie die Geschichte als Gesamtkonstrukt aus Bildern, Textblöcken, Fließtext, Überschrift, Infografiker etc. gestaltet werden muss, soll saldiert ein besseres und damit auch erfolgreicheres Ergebnis stehen.

Je nach Organisationsprinzip des Newsrooms gestaltet sich das Pooling von Inhalten im Detail unterschiedlich aus. Wenn es um Effizienz geht, sind vor allem technische Unterstützung, organisatorische Ausgestaltung und inhaltliche Regeln ausschlaggebend. Es muss geklärt sein, wo in welchen Formaten und in welcher Lizenz Bilder vorliegen und wie man diese schnell und gezielt findet. Es muss geklärt sein, in welcher Form ein Bericht in welchem Medium zu welchem Zeitpunkt veröffentlicht werden soll. Es muss geklärt werden, wie unterschiedliche Ausgabemedien untereinander durch Querverweise verbunden sein sollen. Es muss geklärt werden, in welchem technischen System Artikel verfasst, bearbeitet, gestaltet und veröffentlicht werden. Für diese Aspekte gibt es kein einheitliches Empfehlungsraster, man muss dies in einem Projekt von Fall zu Fall in Abhängigkeit der jeweiligen Organisationsgeschichte und konkreten Aufgabenstellung erarbeiten.

Im Hinblick auf qualitatives Content Pooling geht es im Wesentlichen um das Zusammenführen der Ressourcen, die die Inhalte erstellen, zu einem gemeinsamen Team das gemeinsam festlegt, wie eine Geschichte erzählt werden muss und welche Komponenten dafür gebraucht werden.

Cross Media Publishing
Single Source Publishing
Content Pooling
Multi Channel Publishing
Cross Media Marketing
App Times

Freitag, 20. Juli 2012

Single Source Publishing

Eine Umsetzung von Cross Media Publishing in der Praxis ist das Single Sourcing. Die Grundannahme ist, dass ein Inhalt automatisch oder halb-automatisch in verschiedenen Ausgabeformaten veröffentlicht werden kann und so auf unterschiedlichen Endgeräten in unterschiedlichen Versionen verfügbar ist.

Das Kernstück einer Single Sourcing Strategie ist die Aufbereitung und Vorhaltung eines Informationsangebots unabhängig von seiner Präsentation. Dieser technische Nukleus ist eingebettet in eine Publikationsstrategie, die die Nutzung der Inhalte in verschiedenen Formen und Medien anhand der Unternehmensziele koordiniert.

Die Anwendung einer Single Source Strategie eignet sich typischerweise für Veröffentlichungen, die einen hohen Sachanteil aufweisen, regelmäßig überarbeitet werden und notwendigerweise in verschiedenen Ausgabeformen aufbereitet werden müssen. Dies umfasst z.B. folgende Anwendungsgebiete:
  • Dokumentationen für Produkte und Prozesse
  • Kataloge und Verzeichnisse
  • Lexika und Nachschlagewerke (Loseblattsammlung)
  • Schulungsunterlagen und Fachinformationen (How tos)
Dass Single Sourcing für die Veröffentlichung von regelmäßig zu überarbeitenden Sachinformationen besonders geeignet ist, kann auf Kostenvorteile zurückgeführt werden. Wenn man etwa ein Branchenverzeichnis erstellen will (Restaurantführer, Gelbe Seite o.ä.), wird der Overhead der Einrichtung der Informationsarchitektur durch die Vorteile, automatisiert Druckvorlagen oder Webseiten daraus abzuleiten, überkompensiert. Single Sourcing reduziert den Einsatz redaktioneller und gestalterischer Arbeit, erfordert dafür aber spezielle Kenntnisse der Autoren und eine belastbare Informationsarchitektur.

Unter Informationsarchitektur – eigentlich ein Begriff aus der Webseitenentwicklung – soll hier ganz allgemein die Verbindung von Inhalt mit Struktur verstanden werden. Die Informationsarchitektur ist quasi so etwas wie der Bauplan der Infrastruktur, über die Single Sourcing betrieben wird. Ziel ist es, einen einheitlichen Rahmen zu fixieren, in dem die Aufgaben des Content Management abgearbeitet werden. Als Aufgabenbereiche innerhalb des Content Management Systems kann man sich an die Struktur halten, die die Association for Information and Image Management (AIIM) für den Bereich Enterprise Contentmanagement entwickelt hat . Es geht demnach um fünf Aufgabenbereiche, die man strukturieren und implementieren muss:
  • Capture (Empfang der Inhalte)
  • Manage (Verwaltung der Inhalte)
  • Store (Einlagerung der Inhalte)
  • Preserve (Archivierung der Inhalte)
  • Deliver (Ausgabe der Inhalte)
Der Capture-Prozess befasst sich mit dem Eingang der Inhalte in die einheitliche Datenquelle. Dies betrifft z.B. das Einlesen von papierhaften Belegen (Formularen) durch Scanning und Texterkennung. Heute geht es allerdings auch vielfach um den Import verschiedener technischer Formate und die Vereinheitlichung auf Formate, die im späteren Verlauf genutzt werden sollen (Konvertierung). Z.B. können im Rahmen des Capturings von Bilddaten Standardverfahren wie Bildausrichtung (landscape vs. portrait) oder Farbkorrekturen automatisiert angewendet werden oder Bilder direkt in verschiedene Standard-Größen und -Auflösungen herunter gerechnet und mehrfach abgelegt werden. Schon beim Einlesen der Daten ins System erfolgt auch das Beschreiben der Daten durch die Vergabe von Schlüsselwörtern oder die Anwendung von Taxonomien.

Das Datenmanagement umfasst im Wesentlichen vier Aufgabenbereich:
  • Dokumentenmanagement: Hierunter fällt vor allem die Versionierung der Dokumente, wie man dies etwa von Mediawikis kennt, und die Prüfung auf Konsistenz
  • Zusammenarbeit: Dies betrifft die Nutzung von Werkzeugen, die die gemeinsame Arbeit an Inhalten unterstützen (Groupware)
  • Organisation der Ablage: Hierunter ist die Verwaltung der Strukturen der Datenbestände zu verstehen etwa in Form einer Ordnerstruktur, wie Daten abgelegt sind
  • Workflowmanagement: Die Bearbeitung der Datenbestände kann in Ablaufstrukturen eingeteilt werden, die den Inhalt durch die Bearbeitungskette leitet und z.B. Redaktionsprozesse, Übersetzung, Freigaben etc. steuert
Die eingeflossenen Inhalte müssen konsistent abgelegt werden. Dafür werden die Inhalte in Repositories geschrieben, deren Struktur in sogenannten Library Services abgebildet wird. Sollen die eingelagerten Inhalte langfristig erhalten bleiben, werden sie revisionssicher konserviert und ggf. aus dem eigentlichen Speichersystem ausgelagert (z.B. auf optische Medien archiviert).

Das fünfte Aufgabenfeld im Content Management ist schließlich das Ausliefern der Inhalte, was den eigentlichen Output darstellt. Zentrale Aufgabe ist es, den „neutralen“ Inhalt mit einem ausgabegerechten Layout zu verbinden, z.B. Text in eine Formatvorlage einlaufen zu lassen, mit einem Stylesheet (CSS) zu verbinden oder ggf. auch manuell zu einem Endprodukt zu gestalten. Hier liegt die eigentliche Schwierigkeit des Single Sourcing, denn nur bei halbwegs standardisierten Layouts und Contents lässt sich dieser Prozess so automatisieren, dass z.B. satztechnische Ressourcen nennenswert eingespart werden können. Bei einem umfangreichen Katalog oder Adressverzeichnis ist dies möglich, bei einer Zeitschrift, die sich über Vertriebserlöse finanziert, eher nicht.

An das Layouting schließt sich die Transformation in die verschiedene Ausgabeformate an – also z.B. das Umwandeln von einer Satzdatei in ein PDF oder die Verteilung der Inhalte auf die entsprechende Datenstruktur zur Darstellung als Webseite. Abschließend kommt es zur eigentlichen Verteilung der produzierten Inhalte zum Anwender über die verschiedenen Kanäle.

An dem grob skizzierten Ablauf eines Single Source Publishing Ansatzes erkennt man Vor- und Nachteile des Verfahrens: Durch die Beschränkungen im Output-Prozess, lassen sich schwerlich hochwertige Autoren-Inhalte publizieren. Einen Rohdatenbestand durch Verbindung mit Layout-Vorgaben quasi automatisch in gewünschte Zielformate zu portieren, scheitert schon bei relativ trivialen Anforderungen wie z.B. der Erstellung einer Zeitung (oder Zeitungsoptik), die üblicherweise keine weißen Flecken auf der Seite kennt (formaler Aspekt) und meistens auch versucht, auf einer Seite möglichst passende Inhalte zu kombinieren (publizistischer Aspekt).

Die verschiedenen Erwartungen an Ausgabemedien – Smartphone, Website, Zeitung, Fachmagazin – machen auch ein hoch komplexes Vorgehen notwendig, was Menge und Gestaltung der Inhalte angeht. Während auf einem Mobiltelefon Schlagzeile und Anreißer ausreichen, sollte eine Webseite – allein um von Suchmaschinen berücksichtigt zu werden – einen gewissen Umfang haben und ein Beitrag in einem Fachmagazin ist sogar meistens auf mehrere Seiten angelegt. Wenn aber massive redaktionelle und gestalterische Aufwände entstehen, rechtfertigen sich nicht die Kosten für den Aufwand hinsichtlich der Prozesse und deren Unterstützung mit passenden IT-Systemen.

Der zentrale Vorteil des Single Source Publishing liegt demnach klar in der Produktion relativ standardisierter Inhalte, die zudem einen nicht unerheblichen Anteil an Pflege (Aktualisierung) erforderlich machen. Will man z.B. ein Gaststättenverzeichnis für Baden-Württemberg oder den Schwarzwald erstellen, könnte man durch Single Sourcing den laufenden Betrieb von periodisch erscheinenden Druckverzeichnissen, der Aktualisierung der Webseite und der Bereitstellung als App für verschiedene Betriebssysteme deutlich günstiger gestalten, als bei händischer Aufarbeitung der Daten.

Cross Media Publishing
Single Source Publishing
Content Pooling
Multi Channel Publishing
Cross Media Marketing
App Times

Donnerstag, 19. Juli 2012

Cross Media Publishing

Durch die Verbreitung des Internets und den Anschluss von immer mehr Endgeräten an das Netz, verändert sich die Art und Weise, wie sich Menschen informieren. Verlage reagieren darauf mit Cross Media Strategien. Dafür nutzen sie drei unterschiedliche Ansätze, die im Wesentlichen auf Kostenoptimierung abzielen. Speziell im Umfeld mobiler Endgeräte scheint dies nicht ausreichend zu sein. In einer Vorlesung an der Hochschule Calw habe ich einige der mit Cross Media Publishing zusammenhängenden Aspekte aufgearbeitet und stelle diese in einer kleinen Artikelreihe im DocBlock vor.

Cross Media Publishing heißt nichts anderes, als das Inhalte in verschiedenen Medien genutzt werden. Das ist nichts wirklich Neues. In Zeitschriften veröffentlichte Fachbeiträge werden in Büchern gesammelt, ein Roman wird vorab in einer Zeitschrift abgedruckt, ein Bild findet Eingang in Zeitung, Zeitschrift und Buch – das gab es schon vor hundert Jahren.

Der Begriff Cross Media Publishing allerdings entwickelte sich erst ab den 1980er Jahren, und zwar im Zuge einer technischen Neuerung, der Umstellung von Fotosatz auf Desktop-Publishing Systeme. Damit fügt sich Cross Media in eine ganze Reihe von tief greifenden Änderungen ein, die im Zuge eines längerfristigen Innovationsprozesses entstanden sind – der Digitalisierung.

Die Digitalisierung ist für die Medien in etwa ähnlich bedeutend wie die Entwicklung des Buchdrucks im 15. Jahrhundert, denn sie ändert massiv die Art und Weise, wie mit Inhalten umgegangen wird. Bis zur Entwicklung des Druckwesens nutzte die Gesellschaft zur Fortführung von Wissenszusammenhängen im Wesentlichen das gesprochene oder gesungene Wort.

Mündlichkeit war das zentrale Kennzeichen der Weitergabe von Informationen. Information und Kultur im Sinne eines geteilten Programms, mit dem die Gesellschaft ihren Sinnzusammenhang definiert, konnten nur unter Anwesenden aktualisiert werden und waren dadurch räumlich und zeitlich limitiert. Der Inhalt selbst wurde ausschließlich durch die Reputation des Sprechers auf Konsistenz geprüft, eine nachvollziehbare Prüfung gegenüber dem auslösenden Ereignis war nicht möglich.

Mit der Durchsetzung der Reproduktionstechnik wurde Schriftlichkeit wichtiger. Wissen konnte aufgeschrieben und so störungsfrei konserviert werden. Aus der zunehmenden Alphabetisierung der Gesellschaft entwickelte sich die Epoche der Aufklärung. Technische Entwicklungen wurden möglich, die Industrialisierung schritt voran und mit ihr entwickelte sich die Arbeiterklasse.

Das Zeitalter der Reproduktion von Text und Bild, auch als Typographeum oder Gutenberg-Galaxis bezeichnet, führte die Gesellschaft in die Moderne. Ähnlich wie es in der Oralität schon Schrift gab, gab es in der Gutenberg-Galaxis schon Elektrizität und chemische Anwendungen und dadurch Telegrafie und Telefonie (Interaktion über Distanz), Fotografie (verlustarme Bildlichkeit) und Cinematografie (bewegte Bilder).

Aber erst seit Mitte des 20. Jahrhunderts – nach der Zäsur, die der Zweite Weltkrieg markiert – werden die elektronischen Medien die Leitmedien der Gesellschaft. Kommunikation über Distanz, bis dato ein teures und sehr selektives Verfahren, wird durch die Telefonnetze zum Lebensstil. Radio und vor allem Fernsehen prägen Vorstellung und Verständnis von Geschichte und Gegenwart durch die Verwendung von Emotionen und die unterstellte Wahrhaftigkeit als Abbildung der Realität.

Das elektronische Zeitalter als dritte Stufe einer Medien-Genealogie beginnt ungefähr mit dem 20. Jahrhundert. Die beiden wesentlichen Treiber waren zunächst Fernsehen und Telefon. Doch die eigentliche Abkehr von der Gutenberg-Galaxis mit dem gedruckten Wort und Bild als zentralem Element der Wirklichkeitskonstruktion einer Gesellschaft hat sich erst durch eine dritte Technologiestufe realisiert, der Entwicklung und Verbreitung von Computersystemen oder allgemeiner: der Digitalisierung der Inhalte.

Die Entwicklung der Medien geht einher mit der gesellschaftlichen Entwicklung in toto. Wenn wir gesellschaftliche Entwicklung in einem Extrem-Zeitraffer betrachten, sieht man, dass das Miteinander immer komplexer wird zugunsten einer immer größeren Spezialisierung der einzelnen Elemente. Steigerung der Komplexität bei gleichzeitiger Reduktion der Komplexität durch Spezialisierung kann man als Leistungsfähigkeit einer Gesellschaft interpretieren. Durch Spezialisierung und Teilung wird das Gesamtsystem leistungsfähiger und schafft damit selbst neue Anforderungen, die es nur aufgrund dieser Leistungsfähigkeit bedienen kann.

Fasst man die Entwicklungsschritte in gröbster Form zusammen, so kann man bislang drei große Phasen unterscheiden:

  • Subsistenz der „Jäger und Sammler“, also komplette Versorgung eines Familienverbunds durch sich selbst 
  • Stratifikation, also Spezialisierung durch Aufgabenteilung aufgrund von Teilung in unterschiedliche Schichten (Adel vs. Bauer vs. Leibeigener) oder Stände (Bauer vs. Handwerk vs. Militär vs. Adel vs. Kirche) 
  • Industrialisierung, also Spezialisierung durch technische Hilfsmittel (Mechanik, Elektronik etc.) und funktionale Differenzierung (Recht vs. Wirtschaft vs. Familie vs. Religion vs. Politik vs. Wissenschaft).

Der gemeinsame Prozess ist Teilung und Spezialisierung, die ihren konzeptionellen Höhepunkt wohl in der Arbeitsteilung des „Scientific Management“ des Frederic Taylor gefunden haben und gerne auch mit dem Begriff „Fordismus“ belegt werden. Unsere Grundannahme ist, dass auf den Prozess der Industrialisierung eine weitere Stufe aufsetzt, die den Prozess „Teilung und Spezialisierung“ beschleunigt, nämlich die Digitalisierung der Gesellschaft. Während Industrialisierung darauf beruht, dass manuelle Prozesse durch Zuhilfenahme von Technik effizienter werden, geht es bei der Digitalisierung um die Zerlegung eines Prozesses auf seine binäre Ebene, d.h., die Spezialisierung wird elementarisiert in zwei Zustände: Eins und Null.

Zeitraum Gesellschaft Medien
Vor dem 2. Jh. Subsistenz Oralität
2. Jh. – 15. Jh. Stratifikation Literalität / Skriptorium
15. Jh – 20. Jh. Industrialisierung Typographeum / Gutenberg-Galaxis
seit 20. Jh. Digitalisierung Elektronische Medien

Die Digitalisierung beginnt seit etwa Mitte der 1970er Jahre massiv Einfluss auf die Art und Weise zu nehmen, wie wir leben und arbeiten. Man kann die Geburtsstunde der Digitalisierung als gesellschaftlichem Entwicklungsschub aus dramaturgischen Gründen auf das Jahr 1975 datieren. Damals titelte die Zeitschrift Popular Electronics: „Project Breakthrough! World’s First Minicomputer Kit to Rival Commercial Models“ und beschrieb im zugehörigen Artikel eine kleine Blechkiste mit Schaltern und Dioden namens Altair 8800. Als diese Ausgabe der Elektronikzeitschrift Paul Allen in Boston in die Hand kam, benachrichtigte er seinen Jugendfreund Bill Gates und beide telefonierten noch am selben Tag mit Ed Roberts, dem Inhaber von Micro Instrumentation Telemetry Systems (MITS), dem „Bauherrn“ des Altair 8800. Während Allen als Director of Software bei MITS einstieg, widmete sich Gates der Entwicklung von BASIC und startete die Firma Microsoft, die 1978 die 1-Million-Dollar-Umsatz-Hürde nahm.

Zu ähnlicher Zeit arbeiteten zwei Herren an einer Hardware und stellten 1976 ihren ersten selbst zusammengelöteten Debütanten vor, der auf den Namen Apple 1 hörte und für 666 Dollar angeboten wurde. Die Maschine wurde 200 Mal verkauft, was zur Entwicklung des Apple 2 für 1.300 Dollar führte. Für die damaligen Marktverhältnisse war Apple mit diesen Stückzahlen quasi Marktführer und Trendsetter in einem. Das änderte sich 1981 – sechs Jahre nach dem Startschuss. Der Büromaschinengigant IBM entschied sich zur Einführung eines eigenen Personal Computers und stellte am 12. August ein Referenzdesign vor, das mit Microsofts MS DOS 1.0 betrieben wurde und darüber hinaus mit verschiedenen MS Programmierwerkzeugen bestückt war. Weitere zwei Jahre später folgte mit MS Windows eine erste Version eines grafischen Betriebssystems und mit MS Word die erste Standard-Büroanwendung aus dem Hause Microsoft. 1985 – zehn Jahre nach Gründung – schließt Microsoft das Geschäftsjahr mit einem Umsatz von 140 Millionen Dollar ab und geht ein Jahr später an die Börse.

Am Ende der Dekade sind 90 Millionen Personal Computer im Einsatz, am Anfang waren es nicht einmal eine Million. Die 1990er Jahre startet Microsoft erfolgreich und schafft 1991 als erste Software-Firma einen Jahresumsatz von einer Milliarde Dollar. 1993 vermeldet man zehn Millionen Word-Nutzer weltweit. 1995 kommt dann der entscheidende Schlag, der die Konkurrenz von Apple nahezu in den Konkurs treibt: Microsoft bringt Windows 95 heraus und verkauft 250 Millionen Lizenzen dieses Betriebssystems. In zwanzig Jahren von einer Elektronikbastelei zu einem globalen Geschäft.

Schon naht der nächste Entwicklungsschritt: das Internet. 1990 entwickelt Tim Berners-Lee am Genfer CERN die Kernkomponenten des Internet: HTML als universelle Beschreibungssprache, HTTP als standardisierten Übertragungsweg und URL als global verfügbare Ordnungsstruktur. Mit Freischaltung auf zentralen Rechnern des CERN 1991 und Freigabe für die Öffentlichkeit 1993 beginnt der Siegeszug eines neuen Massenmediums. Die Börsen explodieren und Microsoft ist mit seiner Browser-Software Internet Explorer mittendrin. Nach nur sechs Jahren erreicht das Web die ersten 100 Millionen Nutzer. 2011 ist knapp ein Drittel der Weltbevölkerung online. 2,3 Milliarden Nutzer sind connected.

Knapp die Hälfte der Menschen, die das Internet nutzen, tun dies nicht mehr über den PC, sondern über ein Smartphone. Die Nachfrage nach mobilen Lösungen schließt sich übrigens nahtlos an die Verbreitung mobiler Telefone an, die seit 1991 digital funken. Bereits zehn Jahre später sind mit 48,2 Millionen Nutzern in Deutschland mehr Menschen per „Handy“ als zu Hause im Festnetz zu erreichen. Noch einmal zehn Jahre weiter sind in Deutschland knapp 100 Mio. Mobiltelefone in Nutzung, also 1,3 Geräte pro Einwohner vom Kleinkind bis zum Greis. Weltweit sind heute bei rund 7 Milliarden Einwohnern 5 Milliarden Mobiltelefone im Gebrauch, ein Fünftel davon mit der Möglichkeit, auf das Internet zuzugreifen.

Durch die Verbreitung von Computern in Form von PCs, Smartphones und Tabloids und die intensive Nutzung des Internet sind auch die Inhalte nicht unberührt geblieben. Werfen wir zunächst einen Blick auf den Buchmarkt. Dort scheint die Digitalisierung noch am wenigsten gegriffen zu haben. Den rund 400 Mio. verkauften Büchern jährlich in Deutschland  standen 2011 gerade einmal 2,8 Mio. verkaufte Ebooks gegenüber. Aber: 2011 verkaufte Amazon, weltweit größter Buchhändler, in den USA erstmals etwa mehr Ebooks, als gedruckte Ware. Setzt man allerdings die geschätzten 130 Mio. Buchtiteln  allen verfügbaren Seiten im Internet gegenüber, kann man Stand 2012 wohl behaupten, dass es mittlerweile deutlich mehr digitale Seiten, als gedruckte Seite gibt.

Deutlich weiter ist die Digitalisierung im Bereich Fotografie vorangeschritten. Von der Entwicklung der Digitalkameratechnik in Folge der 1991 in den Markt eingeführten Kodak DCS 100 (Verkaufspreis: 20-25.000 USD, in drei Jahren insgesamt 987 Mal verkauft ) hat sich bis heute die komplette Abkehr vom analogen Filmmarkt vollzogen. Speziell der Einbau leistungsfähiger Optik in Mobiltelefone führt dazu, dass immer mehr Menschen immer öfter Schnappschüsse machen und diese über das Internet anderen Nutzern bereitstellen. So werden Stand 2012 täglich allein 250 Millionen Fotos bei Facebook gepostet.

Ein ähnliches Bild zeichnet sich bei Musik ab. Wurden in Deutschland etwa 1985 noch 74 Millionen Langspielplatten verkauft, sind es 2011 noch ganze 700.000. Dagegen gehen 97 Millionen CDs über den Verkaufstisch und 84 Millionen (legale) Downloads. Auf internationalem Feld ist dabei der Anteil an Downloads und Streamingdiensten noch höher: Von den rund 16,6 Milliarden USD, die mit Musikvertrieb weltweit erlöst werden, kommen mittlerweile 5,2 Milliarden aus dem Vertrieb von MP3-Files. Rechnet man darüber hinaus den privaten Tausch über Peer-to-Peer-Netzwerke mit ein, könnte man wahrscheinlich recht deutlich sagen, dass so gut wie der gesamte Musikkonsum digital und der größte Anteil im digitalen Segment ohne Trägermedium (also als MP3-Datei) genutzt wird.

Werfen wir einen Blick auf die bewegten Bilder, die Videos. Auch hier hat die Möglichkeit, Clips schnell und problemlos mit einer Digicam oder mit dem Mobiltelefon aufzuzeichnen zu einer Angebotsvervielfältigung geführt. So werden auf YouTube Anfang 2012 pro Tag 86.400 Stunden Videomaterial hochgeladen und 4 Milliarden Clips angeschaut . In vielen Industrieländern ist mittlerweile die Fernsehübertragung im wesentlichen digital und die Sender halten ihre Programme in Mediatheken vor, die offensichtlich recht gut genutzt werden. So griffen allein 40 Millionen Nutzer im März 2012 auf die (kostenfreien) Videoangebote der ZDF Mediathek zu . Da sehen die 100 Millionen Videos, die das (kostenpflichtige) Portal Maxdome als größte Online-Videothek in Deutschland in fünf Jahren erreichte, fast schon bescheiden aus.

Überall-TV, Ubiquitous Computing, Location Based Services sind nur einige der aktuellen Stichworte, die umreißen, wie Digitalisierung auf Medienkommunikation und auch auf unser Miteinander durchschlägt: beliebige Inhalte zu beliebiger Zeit an beliebigem Ort. Man schließt sich an (eins) oder nicht (null).

Wesentliche Begleiter unseres täglichen Lebens sind heute digital. Wir telefonieren digital, wir knipsen digital, wir hören Musik im digital aufbereiteten Surround Sound, wir filmen Hochzeiten und Todesfälle digital, wir leihen uns Videos als DVD, wir kaufen und verkaufen bei Amazon und Ebay, wir suchen unseren Partner fürs Leben bei Dating-Plattformen, mailen und chatten mit Freunden weltweit, diskutieren teilweise exotische Themen in speziellen Zirkeln Gleichgesinnter und veröffentlichen unsere privaten Erlebnisse weltweit als Blogs.

Das entscheidende an diesem noch lange nicht abgeschlossenen Prozess der Digitalisierung ist dabei vor allem der – noch nicht intensiv untersuchte – Wandel der Art und Weise, wie jeder Einzelne in der digitalisierten Welt sein Leben lebt. Und das unterscheidet sich tatsächlich erheblich vom Leben in den letzten Jahrzehnten des 20. Jahrhunderts.

Digitalisierung als Megatrend hat die Arbeitswelt so massiv geändert, wie vorher nur die Einführung von Dampfmaschinen und Strom. Viele Branchen sind heute IT-zentriert und auch der persönliche Lebensstil wird durch die Digitalisierung massiv beeinflusst und geändert. Und diese Entwicklungen sind letztlich der Auslöser für die Beschäftigung mit dem Thema Cross Media Publishing in der Medienproduktion. Es geht um die Bereitstellung von Inhalten auf verschiedenen Endgeräten, die durch die Digitalisierung der Inhalte leichter möglich ist, als in alten Produktionsverfahren.

Cross Media Publishing ist als Folge der Verbreitung elektronischer Medien und der Digitalisierung der Gesellschaft eine Art, wie die Anbieter ihre Inhalte in vernetzte Kulturen bringen können, die unabhängig vom konkreten Ort durch die Vernetzung eigene Gemeinschaften bilden, oder um es mit McLuhan zu formulieren: Cross Media Publishing ist eine Verlagsstrategie für die Einwohner des globalen Dorfes.

Grundlegend werden heute von den Verlagsunternehmen drei Cross Media Publishing Strategien eingesetzt:
Eine spezielle Ausprägung nimmt Cross Media Publishing an, wenn es als Cross Media Marketing genutzt wird (Stichwort: integrierte Unternehmenskommunikation). Schließlich werden wir ein Beispiel diskutieren und uns dabei Cross Media Praxis in Bezug auf die Veröffentlichung im mobilen Umfeld anschauen.

The Mobility, Stupid!

Mit dem Slogan "The economy, stupid" gewann Bill Clinton 1992 die Präsidentschaftswahl in den USA. Heute bin ich über einen interessanten Artikel von David Armano gestolpert, der kurz und prägnant argumentiert, dass es nicht darauf ankommt, etwas fürs Mobiltelefon zu machen, sondern den gesellschaftlichen Trend der Mobilität zu verstehen. Armano vergleicht die derzeitige App-Economy mit den frühen Tagen des Internet: Es ging darum, irgendetwas online zu haben. Die Folge: Der Dot-Net-Crash. Erst danach entwickelten sich tragfähige Modelle, wie Unternehmen aus unterschiedlichsten Branchen die Mehrwerte des Netzwerks für neue Mehrwerte nutzen konnten.

Im Bereich der Apps unterstellt Armano ähnliches: Man will eine App - koste es was es wolle. Also wird eine App gelauncht - und schon ist man Teil der App Economy. Doch es gehe nicht darum, etwas für ein neues Gerät zu kopieren, sondern die Funktionsweise zu verstehen, wie Menschen heute mit Technik umgehen und welche Chancen sich dabei auch für Marktneulinge ergeben. Ein lesenswerter Artikel , veröffentlicht bei Harvard Business Review.