Das komplette FOCUS-Jahrbuch 2004 kostenlos downloaden
Transcription
Das komplette FOCUS-Jahrbuch 2004 kostenlos downloaden
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Wolfgang J. Koschnick (Hrsg.) FOCUS-Jahrbuch 2004 Beiträge zu Werbe- und Mediaplanung Markt-, Kommunikations- und Mediaforschung FOCUS Magazin Verlag GmbH, München 2004 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar. Koschnick, Wolfgang J. (Hrsg.): FOCUS-Jahrbuch 2004 Beiträge zu Werbe- und Mediaplanung Markt-, Kommunikations- und Mediaforschung München: FOCUS Magazin Verlag, 2004 ISBN: 3-9808574-1-7 © 2004 FOCUS Magazin Verlag GmbH, München Satz: MEDIASUN Infotainment GmbH, Herrsching Druck: ColorDruckLeimen GmbH, Leimen ISBN: 3-9808574-1-7 Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung ohne Zustimmung des Verlags ist unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Vorwort Ende letzten Jahres starteten wir mit unseren FOCUS-Buchreihen. Als erstes Werk in der Lexikareihe erschien das FOCUS Medialexikon von Wolfgang J. Koschnick in drei Bänden mit rund 7000 Stichwörtern von der Abnehmeranalyse über K1 und LpA bis hin zur Zellengewichtung auf 3124 Seiten. Ich freue mich, dass uns mit diesem FOCUS-Jahrbuch 2004 der Start einer neuen Buchreihe mit Fachbeiträgen von namhaften Autoren aus Markt-, Media- und Sozialforschung gelungen ist. Diese Essay-Reihe schließt somit nahtlos an andere editorische Werke des FOCUS Magazin Verlags an. Jahr für Jahr werden hier in Essay-Form Fachautoren und Wissenschaftler die neuesten Trends darstellen. Was genau ist ein Essay? Die Frage, welche Merkmale einen Essay auszeichnen, ist umstritten. Offensichtlich besteht lediglich Einigkeit, dass Essays zwischen wissenschaftlicher Abhandlung und journalistischem Feuilleton angesiedelt werden müssen. Anders als in den rein wissenschaftlichen Nachschlagewerken werden im FOCUS-Jahrbuch 2004 daher verschiedene Meinungen dargestellt, die zuweilen auch polarisieren und somit zu wichtigen und oft spannenden Diskussionen Anregung bieten. Bereits seit 2001 stehen jedermann jederzeit solche Beiträge aus Markt-, Media- und Sozialforschung auf der Online-B2B-Plattform des FOCUS Magazin Verlags (www.medialine.de) zur Verfügung. Wir freuen uns dem Leser, jetzt auch aktuelle, von Wolfgang J. Koschnick gesammelte Essays in gedruckter Form zur Verfügung zu stellen. Viel Spaß beim Lesen dieses interessanten, aufklärenden, ja sogar unterhaltsamen Sammelwerks von Beiträgen verschiedenster Experten. Ich bin mir sicher, Sie werden hier einige gute Anregungen für Media- und Forschungsdiskussionen finden. Frank-Michael Müller, Verlagsleiter FOCUS Magazin Verlag GmbH München, im Mai 2004 V FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Dieses Jahrbuch ist die erste Ausgabe einer langen Reihe, die sich nahtlos in andere editorische Projekte des FOCUS Magazin Verlags fügt. In dieser Buchreihe stellen namhafte Fachautoren und Wissenschaftler Jahr für Jahr die neuesten Trends dar. Das FOCUS-Jahrbuch 2004. Beiträge zu Werbe- und Mediaplanung, Markt-, Kommunikationsund Mediaforschung ergänzt und vertieft laufend die längerfristig angelegten Datenbanken und Nachschlagewerke durch aktuelle Darstellungen von neueren Entwicklungen. Seit 2001 finden diese Nachschlagewerke auf der MediaLine, der B2B-Plattform des FOCUS Magazin Verlags im Internet, eine Ergänzung durch Veröffentlichungen namhafter Autoren aus dem weiten Feld von Markt-, Media- und Sozialforschung. Diese Fachaufsätze stehen jedermann jederzeit frei zur Verfügung und können mithilfe einer Volltextsuche nach beliebigen Themen und Erkenntnissen durchsucht werden (www.medialine.de/fachbeitraege). Auf der MediaLine entsteht Schritt für Schritt eine umfassende Datenbank für die internationale Mediawirtschaft aus den Bereichen Werbe- und Mediaplanung, Markt-, Media-, Kommunikations- und Konsumforschung. Ende 2003 erschien das FOCUS-Lexikon Werbeplanung – Mediaplanung – Marktforschung – Kommunikationsforschung – Mediaforschung von Wolfgang J. Koschnick: 3 Bände, rund 7000 Stichwörter vom Sleeper-Effekt über K1 und LpA bis hin zur Zielgruppenauflage auf 3124 Seiten, die sowohl online (www.medialine.de/medialexikon) wie auch als Buch zur Verfügung stehen. Dieses Grundwerk wird ergänzt durch zwei weitere Lexika für Österreich und die Schweiz: FOCUS- Lexikon Österreich Werbeplanung – Mediaplanung – Marktforschung – Kommunikationsforschung – Mediaforschung und das FOCUS-Lexikon Schweiz Werbeplanung – Mediaplanung – Marktforschung – Kommunikationsforschung – Mediaforschung. Beide Bücher mit einem Umfang von jeweils noch einmal 600 bis 700 Druckseiten erscheinen im Sommer 2004 – wiederum nach demselben Grundkonzept sowohl als Buch wie als frei nutzbare OnlineAusgabe. Autor ist auch in diesen Fällen der Allensbacher Fachjournalist Wolfgang J. Koschnick, dem jeweils ein Schweizer und ein österreichischer Co-Autor und Lektor zur Seite steht. Die Online-Ausgabe des deutschen Medialexikons wird permanent in engem Kontakt mit den Nutzern aktualisiert, korrigiert, erweitert und optimiert. Jeder Nutzer kann dem Autor (Koschnick@t-online.de) Verbesserungen, Ergänzungen und Neueinträge vorschlagen. Sie werden alle unmittelbar nach inhaltlicher Überprüfung eingearbeitet. Gleichzeitig werden im monatlichen Rhythmus jeweils rund 100 Seiten des Buchs aktualisiert. Damit entsteht ein groß angelegtes interaktives wissenschaftliches Nachschlagewerk, das möglichst keine Fragen offen lassen soll. In Vorbereitung ist die FOCUS-Datenbank für Mediaforschung und Mediaplanung. In ihr werden – für jeden frei zugänglich – im Prinzip alle relevanten, weltweit erschienenen Studien aus Media-, Werbeund Marktforschung – wenn möglich – im Originaltext stehen. Die Nutzung wird sowohl im Volltext wie über Suchroutinen möglich sein. Dieser Datenfundus dürfte dann die wohl weltweit größte Sammlung von Markt- und Mediaforschungsstudien sein. Sie umfasst mehrere tausend Bände mit einer Themenbandbreite, die sowohl die klassische Markt-, Werbe- und Mediaforschung berücksichtigt als auch etwas entlegenere Bereiche wie Plakatforschung, „ambient media“ oder gar „Inflight Advertising und Sponsoring“. Wer also beispielsweise immer noch wissen will, ob Anzeigen rechts oben auf der Seite besser genutzt werden als Anzeigen links unten auf der Seite, kann nicht nur die aktuellen Antworten aus den neuesten Studien zu diesem unerschöpflichen Thema finden, er kann auch feststellen, dass die erste Untersuchung dieser planerischen Schicksalsfrage bereits im Jahre 1897 durchgeführt wurde und schon damals keine so sehr viel schlechteren Ergebnisse zutage förderte als all die vielen Studien, die dann, beginnend in den 1920er-Jahren, im Abstand von meist nur einem Jahr immer wieder derselben Frage nachgingen. VI FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Aber es ließe sich mithilfe dieser Datenbank natürlich auch jede beliebige andere Frage, die in der Mediapraxis eine Rolle spielt, auf der Basis der verfügbaren Forschungserkenntnisse beantworten. Ich nenne nur ganz wenige: Was weiß man über die Wirkung von Humor in der Werbung? Welche Rolle spielt „Gefallen“, d.h. was ist bei verschiedenen Studien herausgekommen, die untersucht haben, ob es für die Rezipienten wichtig ist, wenn ihnen ein Werbespot oder ein anderes Werbemittel gefällt? Welche Wirkung haben Furcht- oder gar Angstappelle (etwa bei Warnungen vor gesundheitsschädlichen Wirkungen von Genussmitteln)? Wie wirkt Bandenwerbung, die im Fernsehen übertragen wird? Wie wichtig ist hoher Werbedruck? Was ist „Recency Planning“? etc. etc. Ein weiterer großer Baustein ist ein großes Nachschlagewerk für Marketing und Marketingdurchführung. In einem ersten Schritt wurde bereits im Jahr 2002 ein zweisprachiges englischdeutsches/deutsch-englisches Enzyklopädisches Wörterbuch für Marketing ins Netz gestellt (www.medialine.de/marketing-woerterbuch): Gut 3500 Druckseiten mit über 40000 Stichwörtern. Auch dies übrigens als interaktive Veranstaltung. Das Buch zur Online-Ausgabe erscheint im Herbst 2004. 2005 kommt als weiteres groß angelegtes Nachschlagewerk das FOCUS-Lexikon Marketing heraus – wiederum sowohl als Buch wie als Online-Ausgabe. Umfang gut 2500 bis 3000 Druckseiten und über 6000 Stichworteintragungen. Anfang 2006 erscheint das FOCUS-Lexikon für Markt- und Konsumforschung mit rund 1500 bis 2000 Druckseiten. Wolfgang J. Koschnick Allensbach am Bodensee, im Mai 2004 VII FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de FOCUS-Jahrbuch 2004 Beiträge zu Werbe- und Mediaplanung Markt-, Kommunikations- und Mediaforschung FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Inhaltsverzeichnis Seite TALKING PAPER The Scientific Principles Of Media Planning are Few, but Important. By Erwin Ephron . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 REDE-PAPIER Es gibt nur wenige wissenschaftliche Prinzipien der Mediaplanung, aber die sind wichtig. Von Erwin Ephron . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Der lange Abschied vom „Königsweg der empirischen Sozialforschung“ Von Wolfgang J. Koschnick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 Radiocontrol Die Befunde zeigen, dass die Zukunft dem Audiometer gehört Von Matthias Steinmann und Manuel Dähler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 Warum die Radioforschung in Österreich ihr Befragungsmodell präferiert Von Petra Golja, Doris Ragetté und Sigrid Svitek . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 ‘How to settle the message’ Medien- und Werbewirkung jenseits von Reichweiten und GRPs Von Michael Pusler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 Aufmerksamkeit Forschung und Anwendung Von Christian Scheier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 Dem Online-Nutzer auf der Spur Von Dieter Reigber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 Reichweitenermittlung für Online- und andere Medien Von Jochen Hansen und Johannes Schneller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 Ist die Ökonometrie am Ende? Von Wolfgang J. Koschnick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 Wie Auflagenzahlen und Reichweiten zusammenhängen Von Karl Steurer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 Zum besseren Verständnis: Forschung über den Zusammenhang von Auflage und Reichweite . . . . . . . . . . . . . . . . . . . . . . . 225 Revolution im Gedächtnis Von Wolfgang J. Koschnick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 XI FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Bookmark your success! In FOCUS MediaLine finden Sie Ihre Favoriten für erfolgreiche Marketing- und Mediastrategien. FOCUS MediaLine – Ihr persönlicher Informationsmanager unter www.medialine.de Weitere Infos Tel.: 089 / 92 50 - 24 39 Gut , wenn man die F a k t e n kennt . www.medialine.de TALKING PAPER The Scientific Principles Of Media Planning are Few, but Important. By Erwin Ephron No, Talking Paper is not a new kind of paper that talks, although that will probably be invented soon1. It’s a short-text briefing, like those prepared for the President to keep him out of trouble when he’s visiting Burkina Faso. This is a Talking Paper on the Scientific Principles of Media Planning. It’s brief because there aren’t many. Agreed, scientific principles are no match for the mysteries of life. But media planners still need to be pupils of Science, not its refugees, and at least make the effort to be familiar with what appears to work. And if “principles” seem to be an over claim, let’s think of them as “main beliefs”. There are six principles in media worth studying. Targeting, Recency, Satiation, Acceleration, Scale and Synergy. It makes for a hopeless acronym. 1. TARGETING Henry Kissinger once said the “organizing principle” of Western geo-political strategy was the threat of Communist aggression. I admire the phrase, so I’ve decided to steal it. The organizing principle of media is “the consumer target”, which we need to develop further in our planning. Targeting’s value is consistently underestimated, because we fix on demographic, user and life style targets, which don’t work well for television, where most of the money is still spent. When we expand our target to include those more likely to buy for other reasons, it now includes “geography” and “receptivity” targeting. Both are powerful ways to segment a market. 1 The MIT Media Lab has already invented reusable paper, most of which is still stacked in their closet waiting to be used, again and again. 3 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Geography and Receptivity Geo-targeting is a fancy name for spot planning. The US is divided into 210 TV markets served by different media. All brands have good and bad TV markets, which, unlike demo-targets, sell for much the same cost-per-thousand. It is the ability to buy better markets at the average price that makes geographic targeting work so well. Receptivity targeting exploits the psychological dimension of response. When I wanted something as a child, my mother would advise “ask your father after dinner.” That is receptivity targeting. What a person is feeling, doing or thinking at the time of communication can increase the probability of a response. A few other mealtime examples: • A fast-food commercial, before dinner, when we’re hungry and a Pizza is only a phone call away. • A “stop smoking” spot after dinner, when we’ve lit-up, although we say we’ve quit. • A Weight Watchers commercial Monday, after we’ve over-indulged all weekend. When receptivity requires precise targeting-in-time, it’s limited to TV and Radio. But in Print, context can increase receptivity. Vogue attracts the fashion-conscious reader, while at the same time, an ad in Vogue says that the product shown is fashion. When media people champion the benefits of “environment” in TV that usually means content, production values and even rating level. I would argue that what is going on inside the consumer’s head when the commercial runs is the most important environment of all. Near-to-Purchase “Near-to-purchase” is more generalized targeting-in-time. It has leverage because purchases are usually concentrated, and the last competing message received before the purchase is most likely to be remembered. Near-to-purchase targeting works with most media, but especially outdoor, which has continuing presence, something we will discuss later. Seasonality is a special-case example of near-to-purchase targeting. 4 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de A few examples: • We vote on election day. • Supermarket sales peak Thursday, Friday and Saturday. • We go to movies and shop cars on weekends. • We buy insect repellent in the summer. 2. RECENCY Recency is receptivity targeting expanded into a model of advertising effect. The ideas behind recency are simple. • Advertising works best with consumers who are in the market for the product being advertised (I need a car). • Advertising usually doesn’t put them in the market for the product. Life does that (My car lease is up). • Advertising gets them to buy a brand (Good, Toyota is having a sale). This construction of how ads work has a dramatic effect on television planning, because only a small percent of the target group are ready to buy the product at any given time. This forces the planner to switch from intermittent bursts of heavy advertising (flighting), to more continuous advertising at moderate weight. Said simply, more weeks of advertising will let the campaign reach more people who are in the market at the time. Described another way, Recency is a “low-hanging fruit” strategy. Low-Hanging Fruit In any selling situation, there are hard and easy sales. A smart brand goes after the easy ones first. Recency is the best plan for doing that. When a person is ready to buy a product (the cereal box is empty), life has already done the hard work. That consumer needs cereal. If you are there with a strong message to remind them of your brand (Kellogg’s) before they make the purchase, you will get more than your fair share of the business. The planning problem is you can’t target consumers who are ready-to-purchase directly, because you don’t know who they are. Except for purchase timing, they are the typical prospect. So instead, you have to reach as many of them as pos5 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de sible, over as many weeks as the budget will allow, and let probability do the targeting for you. Recency avoids concentrating messages in bursts of advertising, because that wastes money building frequency with consumers who are not in the market at the time. Those frequency dollars are better spent to reach them in other weeks when they may be ready to buy. Recency is not simply reach planning. It combines reach with continuity. This transforms frequency into something much more valuable in advertising – continuing brand presence 2. The idea of “presence” helps further explain the reach-frequency issue. Presence Most advertising doesn’t work through repetition. It works by being there at the right time3. Successful scheduling reminds more people who are ready to purchase the product; about a brand they already know. This suggests brands should plan for the highest 52-week total of weekly reaches the budget can afford, because different people are in the market for a product during different weeks, but most people shop each week4. Using the highest “sum of weekly reaches” as a goal forces schedules to use moderate GRP weight and run more weeks of advertising5. As we shall see, this increase in advertising continuity also improves advertising Return On Investment (ROI). For the four remaining media planning principles, Satiation, Acceleration, Scale, and Synergy, we move to a new area of discovery through Return On Investment 2 Frequency is part of the old teaching/learning model. Sellers like the idea of advertising teaching people about products because that seems to deserve a higher CPM. 3 An analogy. Which is more effective, telling a child “Wash your hands before eating” three times in the morning, or reminding them once before each meal? 4 The Recency rule on planning interval is “shorter is better”. The actual length is a function of budget. McDonald’s should plan by the day. 5 There is a complication in the need for a reach threshold. A minimum target reach of 20 to 35 seems necessary for the advertising effects to be read in the market. That translates to a weekly weight of 50 to 70 TRPs. 6 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de (ROI) analysis. It is a form of econometric modeling which seeks to identify cause-and-effect in complex systems like advertising. ROI Analysis ROI analysis arrived behind schedule. The most damaging cliché in advertising, “I know half my dollars are wasted, but I don’t know which half”, had never been answered. The question was perfect for ROI. But the new approach didn’t seem to help. The celebrated Adworks 2 study (1999) found that the TV advertising of the top 10 per cent of consumer packaged goods (CPG) brands paid back only 32 cents on the dollar 6. Worse yet, most marketers consider CPG brands to be expert advertisers and television to be the most cost effective form of advertising. But it turns out CPG brands were a bad choice. The Role of CPG Packaged goods have dominated advertising from the start because their managements believe in the science of marketing and their detailed sales data are ideal for brand tracking. But there are also good reasons why they are the wrong place to search for advertising effects. Today they are a minor part of advertising (only 16 cents of each national ad dollar). They show little growth. They operate in mature consumer markets characterized by known brands and intense competition. There is little product differentiation. They are small in dollar volume. And most of their advertising is concentrated in a single medium, television. There is much greater opportunity for advertising to sell in growing markets where news and information are important to the sale, for example Rx drugs, Electronics, Retail, Movies, and in markets where larger brands predominate, like telecommunications, finance, computers, and automobiles. 6 My approximate calculation from their numbers. 7 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Large Brands in Growing Markets Fortunately, Marketing Management Analytics (MMA), the leading US marketing-mix modeling firm, now has a database that includes large brands in growing markets. The measure MMA uses for ROI analysis is the modeled one-year contribution of advertising to total brand sales, minus the costs of goods, divided by the cost of the advertising. It is the equivalent of advertising-delivered “profit before taxes”. They call it “Payback”. Payback is the philosopher’s stone of media measurement. It looks at dollars in and dollars out to leapfrog the troubling lack of comparability in media measurements. It attempts to answer questions like: What does a dollar spent in magazines payback compared to a dollar spent in TV? Does a mix of media payback more? What is the best mix? Here’s what ROI modeling tells us about how media work. We’ll start with Satiation. Source: Marketing Management Analytics 3. SATIATION Satiation is why that first beer always tastes the best. In media, it is diminishing marginal returns to concentration. Satiation shows up in two ways. There is decreasing marginal response to frequency (the earlier exposure of a group of exposures in any medium produces 7 This depends on the shape and level of the media response curves. 8 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de the greater response). And there is decreasing marginal response to concentration (moving dollars to a different medium can often improve response)7. The first pattern supports reach, not frequency, the second argues for media-mix. But it’s not that simple. Since the rate of response to a medium changes with dollars spent, definitive answers on how to mix media are hard to come by. It depends on the plan budget, the media used and the allocation of dollars among media. MMA data (above) show that at current allocations, other media now usually payback more than television does, but this needs to be interpreted with caution. Most print brands also use TV, so some of the response may reflect TV/Print synergies. Satiation also works within a medium. For example, dispersion across TV dayparts usually produces a higher payback than concentration in a single daypart will. 4. SCALE ROI modeling data show increasing returns to brand size. There are economies of scale accruing to large brands, which appear to make advertising (and other marketing programs) more cost-effective. Payback by Brand Size (Tertiles) Avg. Brand $ $ 6,515,545 $ 408,280,000 $ 5,508,324,651 Payback ($ 0.36) ($ 0.85) ($ 1.48) Source: Marketing Management Analytics The table above is based upon 20 non-CPG brands arrayed in terciles by size. It shows average brand sales and payback to advertising. The pattern is typical. Payback correlates directly with brand size. The largest third of the brands show a positive payback ($1.48). The brand detail (not shown) reports that advertising pays back in the short term for each of the four brands in the database with more than $ 1 billion in sales. 9 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de 5. ACCELERATION Acceleration is increasing returns to continuity. There is a higher marginal response to each successive week of advertising. This has two sources. The first is repeat purchase from those influenced to buy the brand by earlier advertising. Then there is the systemic effect of prior weeks of advertising, which show up as increased brand awareness and saliency. This greater familiarity with the brand makes it easier for advertising to make the next sale. Longer-term, increasing returns are amplified by the growing size of the brand, producing economies of scale, which make all marketing activities more productive. 6. SYNERGY Synergy is increasing returns to media convergence. It is the idea that concurrent brand messages to the same consumer from different media sources will produce a total effect greater than the sum of the effects of the individual exposures. This is the so-called “Media Multiplier”.8 It is the opposite of our TV-centric idea that media-mix makes advertising work better by simply extending reach, and balancing frequency9. Synergy says that media duplication is helpful. It’s appropriate to end Synergy on a guarded note. Synergy requires media to overlap, which can reduce the positive effect of continuity since overlapped schedules may result in fewer weeks of advertising. And attempting to cover the same consumer with multiple media will increase schedule frequency, which conflicts with recency. So, synergy is not a clean win. It may diminish other drivers of ROI. A final difficulty in measuring the effects of advertising is the measurement period. This deserves discussion. 8 Alan Smith is the champion of Media Synergy. He is brilliant and tireless on the subject. 9 The current generation of media-mix optimizers does not consider media synergy. Impact-value weighted reach is the goal. 10 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Short-Term vs. Longer-Term ROI modeling uses one year. These short-term effects are relatively simple to model. Advertising runs and sales respond or they don’t. But we know that advertising also has longer-term effects. Modeling these is dicier, because it is more difficult to ascribe an effect to a cause (like sales to advertising) with confidence when they are separated in time. Too many other things have happened.10 This uncertainty leads to metaphysical constructions like, “the longer-term effects of advertising include all of those things that would not have occurred had the advertising not run.” Metaphysical, because apart from repeat purchase, it is impossible to determine exactly what those things are. Or it results in the equally fuzzy measure, growth in Brand Equity, which is easy to say, tough to define and even more difficult to ascribe directly to advertising. Long-Term Effects A clearer way of defining and modeling the longer-term effects of advertising is to think of them as composed of two quite different things. The first is behavioral. It is the increase in baseline sales produced by repeat purchase and depth of repeat, which follows from the initial advertising effect. This can be measured and modeled. The second is cognitive. It is the increase in marginal response to advertising continuity, which captures the way advertising builds on itself by heightening brand awareness and saliency. This is what makes advertising increasingly costeffective when continued over time. This also can be measured and modeled. Targeting, Recency, Satiation, Acceleration, Scale and Synergy. These are the six principles of media planning and this is a talking paper. If you’re ever invited to Burkina Faso, Mr. President, now you can talk media. 10 Carry-over modeling devices like Adstock try to cheat the delayed causality problem simply by moving the advertising closer to the sale. 11 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Erwin Ephron is the acknowledged father of “recency planning”. His fresh ideas about media have changed the way advertising is managed throughout the world. His words on subjects as heated as the TV upfront (“It’s Afghanistan. Pull the trigger now, count the bodies later. How else can you spend $9.3 billion in a week over the phone?”), Media Auditing (“Monitoring is a better word. Buying is a process, not an event”), Strategic Planning (“It’s to agency new business as Viagra is to sex”) have made him an interesting voice at a confusing time. Erwin’s recent honors include: Year 1999 election to the Market Research Council Hall of Fame. Year 2000 winner (with Stu Gray) of the Advertising Research Foundation’s Lysaker Award, which provides $60,000 to fund innovative research. Year 2001 Winner (with Melissa Heath) of the WPP Atticus Award for best published paper on media. Year 2003, honored as One of Five Most Influential Media People of the Last 25 years by “American Demographics Magazine”. After a long agency career; BBDO, Carl Ally, and his own Ephron, Raboy & Tsao, Erwin founded Ephron, Papazian & Ephron, Inc., now the pre-eminent media consultancy with clients in the US and across the world. 12 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de REDE-PAPIER Es gibt nur wenige wissenschaftliche Prinzipien der Mediaplanung, aber die sind wichtig. Von Erwin Ephron Nein, nein. Ein „Rede-Papier“ ist kein sprechendes Papier, obwohl auch das wohl bald erfunden sein wird.1 Es handelt sich vielmehr um eine Art kurz gefassten Briefings, so in der Art der Zusammenfassungen, wie sie für den amerikanischen Präsidenten verfasst werden, um zu vermeiden, dass er Unsinn redet, wenn er auf Staatsbesuch in Burkina Faso ist. Dies ist ein „Rede-Papier“ über die wissenschaftlichen Prinzipien der Mediaplanung. Und es ist sehr kurz, weil es nicht sehr viele davon gibt. Zugegeben, wissenschaftliche Prinzipien sind sowieso nicht geeignet, die Geheimnisse des Lebens zu erklären. Aber Mediaplaner müssen dennoch Scholaren der Wissenschaft sein. Auf jeden Fall sollten sie nicht auf der Flucht vor ihr sein, und sie sollten wenigstens den Versuch machen, sich mit etwas vertraut zu machen, was funktioniert. Und wenn der Begriff „Prinzipien“ etwas zu hoch gegriffen erscheint, so sollten wir von „grundlegenden Überzeugungen“ sprechen. Es gibt in der Mediaplanung sechs Prinzipien, die zu untersuchen sich lohnt: Zielgruppengenauigkeit (Targeting), zeitliche Nähe (Recency), Sättigung (Satiation), Volumen (Scale), Beschleunigung (Acceleration) und Synergie (Synergy). Man könnte daraus ein Zungenbrecher-Akronym machen. 1. Zielgruppengenauigkeit Henry Kissinger hat einmal gesagt, das „Organisationsprinzip“ der geopolitischen Strategie des Westens sei die drohende kommunistische Aggression. Ich bewundere diese Formulierung und habe daher beschlossen, sie zu klauen. Das Organisationsprinzip der Mediaplanung ist die „Zielgruppe der Konsumenten“, die wir in unserer Planung weiter entwickeln müssen. 1 Das Media Lab des Massachusetts Institute of Technology (MIT) hat bereits ein wieder verwendbares Papier entwickelt, das allerdings noch in deren Geheimschränken ruht und darauf wartet, wieder und wieder genutzt zu werden. 13 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Der Wert der Zielgruppengenauigkeit wird durchgehend unterschätzt, weil wir auf demografisch, durch Nutzungs- oder Lebensstil, definierte Zielgruppen fixiert sind, die speziell bei der Fernsehwerbung, für die noch immer das meiste Geld ausgegeben wird, nicht gut funktionieren. Wenn man die Zielgruppengenauigkeit erhöht, indem man auch diejenigen einbezieht, die aus weiteren Gründen mit höherer Wahrscheinlichkeit kaufen, dann muss man „Geografie“ und „Empfänglichkeit“ (Receptivity) in die Zielgruppenstrategie einbeziehen. Beides sind wirkungsstarke Instrumente zur Segmentierung eines Marktes. Geografie und Empfänglichkeit Geografische Zielgruppengenauigkeit (Geo-Targeting) ist ein fashionabler Name für zielgruppengenaue Planung. Die USA bestehen aus insgesamt 210 Fernsehmärkten, die von unterschiedlichen Medien bedient werden. Alle Markenartikel haben teils gute, teils schlechte Fernsehmärkte, die jedoch anders als demografisch definierte Zielgruppen für im Wesentlichen denselben Tausenderpreis verkauft werden. Es ist die Fähigkeit, bessere Märkte zu den durchschnittlichen Preisen einzukaufen, die geografische Zielgruppenplanung zu einem so wertvollen Instrument macht. Empfänglichkeitsplanung (Receptivity Targeting) macht sich die psychologische Dimension von Reaktionen zunutze. Wenn ich früher als Kind etwas wollte, sagte meine Mutter stets: „Frage deinen Vater nach dem Essen.“ Dies ist der Kern von Empfänglichkeitsplanung. Was ein Mensch im Augenblick der Kommunikation fühlt, tut oder denkt, kann die Wahrscheinlichkeit einer bestimmten Reaktion erhöhen. Noch ein paar Beispiele im Zusammenhang mit dem Essen: • Wenn wir einen Fast-Food-Werbespot kurz vor dem Essen sehen, wenn wir sowieso schon Hunger haben, dann rufen wir schneller beim Pizza-Service an. • Ein „Anti-Raucher“-Spot unmittelbar nach dem Essen, wenn wir die Zigarette schon angesteckt haben, obwohl wir uns doch vorgenommen hatten, mit dem Rauchen aufzuhören. • Ein Werbespot der Weight-Watcher am Montag, nachdem wir das ganze Wochenende viel zu viel gegessen haben. Wenn die Empfänglichkeitsplanung eine zeitgenaue Planung erfordert, bleibt ihre Wirksamkeit auf Fernsehen und Radio beschränkt. Aber in den Printmedien kann 14 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de der thematische Zusammenhang, das redaktionelle Umfeld, die Empfänglichkeit erhöhen. Die Zeitschrift Vogue zieht modebewusste Leserinnen an, während zugleich eine Anzeige in Vogue den Eindruck suggeriert, das darin beworbene Produkt sei modisch. Wenn Mediaplaner die Vorzüge des „Programmumfelds“ im Fernsehen anpreisen, dann meinen sie damit meistens Inhalt, Produktionswerte und sogar Einschaltquoten. Ich würde dagegen argumentieren: Was im Kopf des Konsumenten vor sich geht, während der Werbespot läuft, ist das allerwichtigste Umfeld. Nähe zum Kauf Die „Nähe zum Kauf“ ist eine allgemeinere Form der zeitgenauen Planung. Sie ist wirkungsstark, weil Käufe gewöhnlich auf einen bestimmten Zeitpunkt konzentriert sind. Die letzte unter mehreren konkurrierenden Werbebotschaften, die den Konsumenten kurz vor dem Kauf erreicht, ist diejenige, an die er sich wahrscheinlich am besten erinnert. Die Zielgruppenplanung nach dem Kriterium der „Nähe zum Kauf“ funktioniert mit den meisten Werbeträgern, besonders gut aber funktioniert sie mit Außenwerbung – wir werden darauf zurückkommen. Saisonalität ist ein Sonderfall der Zielgruppenplanung nach „Nähe zum Kauf“. Ein paar Beispiele: • Wir wählen am Wahltag. • Käufe in Supermärkten finden besonders an Donnerstagen, Freitagen und Samstagen statt. • Kinobesuche und Automobilkäufe finden verstärkt an den Wochenenden statt. • Wir kaufen Anti-Insekten-Sprays im Sommer. 2. Zeitliche Nähe (Recency) Das Konzept der „zeitlichen Nähe“ ist die Erweiterung des Konzepts der Empfänglichkeitsplanung zu einem Modell der Werbewirkung. Die Grundgedanken des „Recency“ sind einfach: • Werbung wirkt am besten bei Konsumenten, die sich gerade auf dem Markt für das beworbene Produkt befinden (Ich brauche dringend ein neues Auto). 15 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de • Die Werbung bringt die Konsumenten normalerweise nicht auf den Markt für das Produkt. Das Leben tut das (Mein Leasing-Vertrag läuft aus). • Werbung bringt die Konsumenten dazu, sich für eine bestimmte Marke zu entscheiden (Gut, Toyota verkauft gerade zu besonders günstigen Preisen). Diese Rekonstruktion des Wirkungsprozesses von Werbung hat dramatische Auswirkungen auf die Fernsehplanung; denn zu jeder beliebigen Zeit ist immer nur ein ganz kleiner Prozentsatz der Zielgruppe bereit, das beworbene Produkt auch zu kaufen. Das zwingt die Mediaplaner, vom „Klotzen“ zum „Kleckern“ überzugehen: An Stelle kurzer Phasen intensiver Werbung und langer Pausen dazwischen („Flighting“) empfiehlt sich eine kontinuierliche Werbung mit geringem Werbedruck. Einfach ausgedrückt: Je größer die Zahl der Wochen, während derer eine Kampagne präsent ist, desto größer ist die Zahl der Leute, die während ihrer Laufzeit auch „auf dem Markt“ sind und das Produkt kaufen wollen. Mit anderen Worten: „Recency Planning“ ist eine Strategie der tief hängenden Früchte. Tief hängende Früchte In jeder Verkaufssituation gibt es sehr schwere und sehr leichte Verkäufe. Gescheite Markenartikler kümmern sich zuerst um die leichten Verkäufe. Wenn ein Mensch bereit ist zu kaufen (Die Haferflocken sind alle), dann hat das Leben bereits den größeren und anstrengenderen Teil der Arbeit getan. Dieser Konsument braucht Haferflocken. Wenn in diesem Moment eine Marke mit einer starken Botschaft da ist und ihn auf sich aufmerksam macht (Kellog‘s), bevor er seinen Einkauf tätigt, dann hat sie die allerbesten Chancen, ihn zu überzeugen und ihr Produkt zu verkaufen. Das Planungsproblem besteht nun allerdings darin, dass man die Konsumenten, die zum Kauf bereit sein, nicht direkt ins Visier nehmen kann, weil man nicht weiß, wer sie sind. Außer im Hinblick auf den Kaufzeitpunkt unterscheiden sie sich in nichts vom durchschnittlichen potenziellen Kunden. Weil das so ist, muss man so viele von ihnen wie möglich über so viele Wochen, wie der Etat es gestattet, erreichen und dabei der Wahrscheinlichkeit die Zielplanung überlassen. Zeitliche Nähe („Recency“) vermeidet es bewusst, Werbebotschaften in „Klotz“Phasen zu konzentrieren, weil man so viel Geld darauf verschwendet, Kontaktfrequenzen mit Konsumenten aufzubauen, die zu dieser Zeit sowieso nicht „auf dem Markt“ sind. Dieses viele schöne Geld verwendet man besser während anderer Wochen, in denen sie möglicherweise kaufbereit sind. 16 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de „Recency“ ist nicht einfach Nettoreichweiten-Planung. „Recency“ verknüpft vielmehr Nettoreichweite mit Kontinuität (gleichmäßiger Kontaktverteilung im Zeitverlauf). Dadurch wandelt sich Frequenz (Kontakthäufigkeit) in etwas, was für die Werbung sehr viel wertvoller ist – kontinuierliche Markenpräsenz.2 Präsenz In der Regel wirkt Werbung nicht durch Wiederholung. Sie wirkt dadurch, dass sie zum richtigen Zeitpunkt präsent ist.3 Erfolgreiche Zeitplanung erinnert mehr kaufbereite Leute an ein Produkt bzw. an eine Marke, die sie bereits kennen. Das läuft darauf hinaus, dass Markenartikler möglichst während aller 52 Wochen im Jahr oder wenigstens an so vielen Wochen werben sollten, wie es ihr Budget erlaubt; denn in verschiedenen Wochen sind verschiedene Leute „auf dem Markt“, um ein Produkt zu kaufen. Aber die meisten Leute gehen jede Woche einkaufen.4 Basiert man die Planung auf dem Ziel der „höchsten Nettoreichweite pro Woche“, so muss man zwangsläufig einen geringen Werbedruck, eine geringe Zahl von Gross Rating Points (GRPs) und eine möglichst große Zahl von Wochen planen.5 Wie ich zeigen werde, führt diese Erhöhung der Werbekontinuität zugleich auch zu einer Erhöhung der Werberentabilität, des werblichen „Return on Investment (ROI)“. Um die weiteren vier Mediaplanungs-Prinzipien Sättigung, Beschleunigung, Volumen und Synergie zu verstehen, befassen wir uns mit einem neuen Entdekkungszusammenhang mit Hilfe der Rentabilitätsanalyse (ROI analysis). Dabei handelt es sich um eine Form der ökonometrischen Modellbildung, die den Versuch unternimmt, Ursachen und Wirkungen in komplexen Systemen wie der Werbung zu erkennen. 2 Frequenz ist Teil des klassischen Lernmodells der Werbewirkung. Die Vorstellung, Werbung laufe darauf hinaus, die Leute etwas über ein Produkt zu lehren, ist bei Anbietern wohl deshalb so beliebt, weil das höhere Tausenderpreise rechtfertigt. 3 Eine Analogie. Was wirkt besser: Wenn man einem Kind morgens dreimal sagt: „Wasch deine Hände vor dem Essen“, oder wenn man es einmal, kurz vor dem Essen daran erinnert? 4 Die „Recency“-Regel für die Planung lautet: „Kürzer ist besser“. Die tatsächliche Länge ist eine Funktion des Budgets. Ein Unternehmen wie McDonald‘s sollte sogar auf der Basis eines Tages planen. 5 Es gibt eine Komplikation beim Erfordernis einer Nettoreichweiten-Schwelle. Eine angestrebte Nettoreichweite von 30 bis 35 scheint erforderlich, um Werbeeffekte überhaupt im Markt erkennbar zu machen. Das läuft wiederum auf ein wöchentliches Gewicht von 50 bis 70 Target Reach Points (TRPs) hinaus. 17 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Rentabilitätsanalyse Die Rentabilitätsanalyse kam zu spät. Auf das schädlichste in der Werbung verbreitete Klischee „Ich weiß, dass die Hälfte meines Geldes zum Fenster hinausgeworfen ist. Ich weiß bloß nicht, welche“ ist nie eine Antwort gefunden worden. Dabei war das eine perfekte Fragestellung für eine Rentabilitätsanalyse. Aber auch dieser neue Ansatz hat nicht geholfen. Die viel gerühmte Adworks 2-Studie von 1999 fand heraus, dass die Fernsehwerbung der führenden zehn Marken bei den abgepackten Verbraucherprodukten gerade mal 32 Cent pro Dollar erwirtschaftete.6 Was noch viel schlimmer ist: Die meisten Marketingleute betrachten die abgepackten Markenartikel als Werbeexperten par excellence und die Fernsehwerbung als die kostengünstigste Form von Werbung. Aber es hat sich herausgestellt, dass abgepackte Verbraucherprodukte einfach eine schlechte Wahl waren. Die Rolle der abgepackten Verbrauchermarken Die abgepackten Verbraucherprodukte haben die Werbung von Anfang an beherrscht, weil ihre Unternehmensleitungen an die Marketingwissenschaft glauben und weil ihre detaillierten Verkaufsdaten ideal für die Analyse von Marketing- und Kommunikationswirkungen sind. Heute machen sie nur noch einen kleinen Teil des Werbevolumens aus (nur 16 Cent für jeden Werbedollar in den USA). Sie zeigen nur geringes Wachstum. Sie operieren in reifen Märkten, die durch wohl bekannte Marken und einen intensiven Wettbewerb gekennzeichnet sind. Es gibt nur wenig Produktdifferenzierung. Ihr Geldvolumen ist gering. Und die meiste Werbung geht in ein einziges Medium, das Fernsehen. Es gibt in wachsenden Märkten, in denen Informationen und Neuigkeiten wichtig für Verkäufe sind, viel bessere Gelegenheiten für Werbung, tatsächliche Verkäufe auszulösen, zum Beispiel rezeptfreie Medikamente, Elektronik, Einzelhandel, Kino, und in Märkten, in denen größere Marken vorherrschen wie Telekommunikation, Finanzen, Computer und Autos. 6 Meine angemessene Berechnung auf der Basis der Adworks-Zahlen. 18 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Quelle: Marketing Management Analytics Große Marken in wachsenden Märkten Glücklicherweise hat Marketing Management Analytics (MMA), die führende US-Firma für die Entwicklung von Marketing-Mix-Modellen, heutzutage eine Datenbasis, die auch große Marken in wachsenden Märkten einschließt. Das Maß, das MMA für die Rentabilitätsanalyse einsetzt, ist der modellierte Ein-Jahr-Beitrag der Werbung zu allen Markenverkäufen abzüglich der Kosten für die Güter, geteilt durch die Kosten der Werbung. Es stellt das Äquivalent der durch Werbung generierten „Gewinne vor Steuern“ dar. Sie haben dafür die Bezeichnung „Payback“ gewählt. „Payback“ ist der Stein der Weisen in der Messung des Werbeträgereinsatzes. „Payback“ untersucht die eingesetzten Gelder und die Gelder, die wieder herauskommen, und überspringt dabei den beunruhigenden Mangel an Vergleichbarkeit bei der Messung von Werbeträgern. „Payback“ versucht, Fragen wie diese zu beantworten: Wie ist der Payback für einen Dollar in Zeitschriften im Vergleich zu einem Dollar, der für Fernsehwerbung ausgegeben wird? Ist der Payback bei einem Media-Mix besser? Wie sieht der beste Mix aus? Und hier sind die Antworten, die man mit Hilfe der Rentabilitätsanalyse über den Werbeträgereinsatz gewinnt. Wir fangen mit Sättigung an. 19 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de 3. Sättigung Sättigung ist der Grund, weshalb das erste Bier immer am besten schmeckt. Bei den Medien sind es die nachlassenden Grenzerträge auf den geballten Werbeträgereinsatz. Sättigung tritt stets in zwei Formen in Erscheinung. Es gibt eine nachlassende Grenzreaktion auf Kontakthäufigkeit (der frühere von mehreren Kontakten in einem beliebigen Werbeträger löst die stärkere Reaktion aus). Und es gibt eine nachlassende Grenzreaktion auf geballten Werbeträgereinsatz (wenn man die Gelder in einen anderen Werbeträger investiert, lassen sich die Reaktionen häufig verbessern).7 Das erste Reaktionsmuster stützt die Vorstellung vom Nutzen der Nettoreichweite, nicht der Kontakthäufigkeit. Das zweite Muster spricht für den MediaMix. Da die Intensität der Reaktionen auf den Einsatz eines Mediums mit der eingesetzten Geldmenge variiert, lassen sich definitive Angaben darüber, wie genau man nun die Medien mixen soll, nur schwer geben. Das hängt vom geplanten Etat, den eingesetzten Werbeträgern und der Verteilung der Gelder auf die einzelnen Werbeträger ab. Die MMA-Daten zeigen, dass bei den gegenwärtig praktizierten Verteilungsmustern der Payback bei anderen Werbeträgern höher als beim Fernsehen ist. Aber das sollte mit der gebotenen Vorsicht interpretiert werden. Die meisten Marken, die in Printmedien werben, setzen auch Fernsehwerbung ein. Daher kann es sein, dass manche Reaktionen einfach nur die TV-Print-Synergien widerspiegeln. Sättigung funktioniert auch innerhalb eines Mediums. So generiert zum Beispiel eine Verteilung von Werbung über die verschiedenen Zeitsegmente im Fernsehen einen höheren Payback als die Konzentration auf ein einziges Zeitsegment. 4. Volumen Die Daten der Rentabilitätsanalyse zeigen, dass die Erträge mit wachsender Größe einer Marke steigen. Für große Marken bestehen nun einmal Kostendegressionseffekte, die ihre Werbung (und ihre anderen Marketing-Programme) kosteneffektiver machen. 7 Das hängt natürlich vom Verlauf und dem Niveau der Reaktionskurven ab. 20 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Payback nach Markengröße (Tertiles) durchschnittl. Marke $ Payback $ 6 515 545 ($ 0,36) $ 408 280 000 ($ 0,85) $ 5 508 324 651 ($ 1,48) Quelle: Marketing Management Analytics Die Tabelle oben basiert auf 20 (nicht abgepackten) Marken, die nach der Größe in Tertile aufgeteilt wurden. Sie zeigt die durchschnittlichen Verkaufszahlen und den Payback auf die Werbung. Das Muster ist typisch. Payback korreliert direkt mit der Markengröße. Das größte Drittel der Marken zeigt ein positives Payback ($1,48). Die Einzelheiten zu den Marken (die in der Tabelle nicht erscheinen) zeigen, dass Werbung kurzfristig für jede der vier Marken in der Datenbasis mit einem Verkaufsvolumen von mehr als einer Milliarde Dollar einen Payback erbrachte. 5. Beschleunigung Beschleunigung („Acceleration“) läuft auf die Erhöhung der Erträge auf Kontinuität hinaus. Jede folgende Werbewoche erbringt einen höheren Grenzertrag. Das hat zwei Gründe. Der erste ergibt sich aus den Wiederholungskäufen derjenigen, die durch frühere Werbung zum Kauf der Marke beeinflusst wurden. Dann gibt es den gewissermaßen systembedingten Effekt vorangegangener Werbewochen, die sich in Form von erhöhter Marken-Awareness und erhöhter Markenpräsenz äußern. Dieses höhere Maß an Markenbekanntheit macht es der Werbung leichter, den nächsten Kauf auszulösen. Längerfristig steigende Erträge werden durch die wachsende Größe der Marke und das Eintreten von Kostendegression vergrößert, dank derer alle Marketingaktivitäten produktiver werden. 6. Synergien Synergien erhöhen die Erträge von Medienkonvergenz. Das ist die Idee, dass gleich lautende Markenbotschaften, die den Konsumenten aus verschiedenen Medienquellen erreichen, eine Gesamtwirkung erzielen, die größer als die Summe der einzelnen Kontakte ist. Das ist der viel berufene „Media Multiplier“.8 21 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Es ist das Gegenstück zu unserer fernsehzentrierten Sicht, dass Media-Mix die Werbewirkung erhöht, indem er einfach die Nettoreichweiten erhöht und die Kontakthäufigkeit ausbalanciert.9 Das Konzept der Synergien geht davon aus, dass Medienüberschneidung nützlich ist. Es ist jedoch angebracht, beim Thema Synergie zur Vorsicht zu mahnen. Synergie erfordert Medienüberschneidungen, die wiederum die positiven Wirkungen der Kontinuität mindern können, weil ja Mediapläne mit Überschneidungen die Zahl der Werbewochen reduzieren können. Und der Versuch, denselben Konsumenten mit mehreren Medien zu erreichen, erhöht die Schaltfrequenz, was wiederum mit dem Konzept der zeitlichen Nähe („Recency“) in Konflikt kommt. Synergie bedeutet also in keinem Fall einen Reingewinn. Sie kann andere Antriebskräfte des „Return on Investment“ schwächen. Ein weiteres Problemfeld bei der Messung der Werbewirkung ist die Messperiode. Das muss erörtert werden. Langfristigkeit vs. Kurzfristigkeit ROI-Modeling basiert auf einer Periode von einem Jahr. Diese kurzfristigen Effekte sind relativ leicht zu modellieren. Die Werbung läuft, und die Verkäufe reagieren darauf oder tun das auch nicht. Aber wir wissen, dass Werbung auch längerfristige Wirkungen hat. Die zu modellieren ist sehr viel kniffliger, weil es sehr viel schwieriger ist, die Wirkung einer Ursache (wie Verkäufe der Werbung) zuzuschreiben, wenn beide zeitlich weit auseinander liegen. Viel zu viele andere Dinge sind passiert.10 Diese Ungewissheit führt geradezu zwangsläufig zu metaphysischen Konstruktionen wie „die längerfristigen Wirkungen der Werbung schließen alle Dinge ein, die nicht eingetreten wären, wenn die Werbung nicht erschienen wäre“. Sie sind metaphysisch, weil es außer bei Wiederholungskäufen unmöglich ist, zu sagen, was diese „Dinge“ sind. 8 Alan Smith ist der Verfechter der Medien-Synergie. 9 Die gegenwärtig eingesetzte Generation von Media-Mix-Optimierern berücksichtigt WerbeträgerSynergie überhaupt nicht. Nach Impact-Werten gewichtete Nettoreichweite ist bei ihnen das Ziel. 10 Carry-over-Modelle wie Adstock versuchen, sich am Problem der verzögerten Kausalität einfach dadurch vorbeizumogeln, dass sie die Werbung näher an den Verkauf rücken. 22 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Andere kommen zu ähnlich verschwommenen Maßen wie Wachstum des Markenkapitals (brand equity). Das lässt sich leicht sagen, ist jedoch schwer zu bestimmen und noch schwerer direkt der Werbung zuzuschreiben. Langfristige Wirkungen Ein klarerer Ansatz, die langfristigen Wirkungen von Werbung zu definieren und zu modellieren, ist es, sich vorzustellen, dass sie aus zwei ganz verschiedenen Faktoren bestehen. Der erste hat mit Verhalten zu tun. Es handelt sich um die Erhöhung der Grundverkäufe, die sich auf Grund von Wiederholungskäufen und der Tiefe der Wiederholungen ergeben, die wiederum aus der anfänglichen Werbewirkung resultieren. Dies kann gemessen und im Modell abgebildet werden. Der zweite ist kognitiver Natur. Es handelt sich um die Grenzreaktion auf Werbekontinuität, die gewissermaßen die Art und Weise einfängt, wie Werbung auf sich selbst aufbaut, indem sie Markenbewusstsein und Markenpräsenz erhöht. Genau dies macht Werbung im Laufe der Zeit in wachsendem Maße kostengünstig. Auch dies kann gemessen und im Modell abgebildet werden. Zielgruppengenauigkeit, zeitliche Nähe, Sättigung, Beschleunigung, Volumen und Synergie: Das sind die sechs Prinzipien der Mediaplanung, und dies ist ein Rede-Papier. Falls also der Präsident je nach Burkina Faso eingeladen werden sollte, könnte er jetzt über Mediaplanung reden… 23 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Erwin Ephron Der führende US-Mediaplanungsexperte Erwin Ephron ist der geistige Schöpfer des „Recency Planning“. Seine wegweisenden neuen Ideen darüber, wie die Medien funktionieren, haben das Werbe- und Kommunikationsmanagement in aller Welt beeinflusst und verändert. Ephron hat in den USA zahlreiche Ehrungen erhalten. 1999 wurde er in die „Hall of Fame“ des Market Research Council gewählt. Im Jahr 2000 war er zusammen mit Stu Gray Gewinner des Lysaker-Preises der Advertising Research Foundation (ARF). 2001 erhielt er zusammen mit Melissa Heath den WPP Atticus Award für das beste veröffentlichte Referat über ein Mediathema. Und 2003 zeichnete ihn das American Democraphics Magazine als einen der fünf einflussreichsten Medienmänner der letzten 25 Jahre aus. Nach einer langen Laufbahn bei den Werbeagenturen BBDO, Carl Ally und seiner eigenen Agentur Ephron, Raboy & Tsao gründete er das New Yorker Mediaberatungsunternehmen Ephron, Papazian & Ephron, Inc., das heute zu den weltweit führenden Beratungsunternehmen der Branche zählt. 24 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Der lange Abschied vom „Königsweg der empirischen Sozialforschung“ Von Wolfgang J. Koschnick Diese erste Ausgabe des FOCUS-Jahrbuchs greift vor allem vier aktuelle Tendenzen auf: (1) Immer stärker tritt international in der Markt- und Mediaforschung die technische Messung an die Stelle von Befragungen und Beobachtungen. Eine Reihe von Beiträgen zu diesem Thema untersucht die Frage, ob die empirische Sozialforschung ganz allgemein den bisherigen „Königsweg der Sozialforschung“ verlässt. In diesem Zusammenhang steht auch der „Keynote“-Beitrag des amerikanischen Media-Experten Erwin Ephron über den langen Weg vom Recency-Planning zum Return-on-Investment-Modeling. (2) Eine Reihe weiterer Beiträge untersucht neuere Entwicklungen in der Mediaforschung unter dem Generalthema „Vom Recency-Planning zum Modeling“. (3) Ein nächster Themenkomplex beschäftigt sich eingehend mit mehreren Entwicklungssträngen in der Werbewirkungsforschung, namentlich mit den Erkenntnissen der Aufmerksamkeitsforschung, der ökonometrischen Werbeforschung und der Hirnforschung zum „impliziten Gedächtnis“. (4) Ganz von selbst versteht es sich, dass ausführlich fundamentale Fragen der Online-Werbung, des Online-Marketing und der Online-Forschung in einem aktuellen Jahrbuch erörtert werden, das zu Beginn des 3. Jahrtausends erscheint. Die Revolution in der Mediaforschung hat – wie so viele Revolutionen – ausgerechnet in der stockkonservativen Schweiz begonnen. In den 1980er-Jahren entstand dort mit Telecontrol die heute weltweit gültige Form der vorwiegend technischen Messung des Fernsehnutzungsverhaltens. 2001 folgte die Einführung der apparativen Messung der Hörfunknutzung durch Radiocontrol, und 2004 kam die technische Erhebung der Plakatnutzung. Selbst die Erhebung der Nutzung von Printmedien ist mit der Entwicklung der Mediawatch nicht mehr reine Zukunftsmusik. Kein Land der Welt hat den Übergang vom Marktund Mediaforschungsinstrument der Befragung zur technischen Messung so konsequent und zum großen Teil auch bereits erfolgreich vorangetrieben wie die Schweiz. 25 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Die Gründe dafür, dass die Markt- und Mediaforscher nach und nach den „Königsweg der empirischen Sozialforschung“ – die Befragung – verlassen und stattdessen Verhalten mit Hilfe technischer Messung erforschen, liegen auf der Hand. Insgeheim traut kein einziger Marktforscher denen so recht über den Weg, die seine Existenz gewährleisten: den Befragten. Insgeheim sind sie alle der Überzeugung, dass die Interviewten entweder lügen oder sonstwie die Unwahrheit sagen. Und wenn sie schon das nicht tun, dann erinnern sie sich jedenfalls falsch… Wie sollen sie sich auch richtig erinnern, wenn der Marktforscher sie unverhofft anruft und Viertelstunde für Viertelstunde nachfragt, was sie denn gestern getrieben haben? Und haben sie zwischen 13.45 und 14.00 Uhr auch brav Radio gehört? Und wie war das von 19.30 bis 19.45 Uhr? Jeder Polizist weiß doch, dass zwei Zeugen mindestens drei verschiedene Zeitangaben über einen Tathergang machen. Und die müssen noch nicht einmal einen ganzen Tag rekonstruieren, sondern ein einziges, auch noch spektakuläres Ereignis wie einen Meuchelmord. Dabei müssen die Befragten auch noch genau unterscheiden, welchen Sender sie gehört haben, wo es doch so viele Sender mit ähnlich klingenden Namen und noch ähnlicher klingenden Programmen gibt. Viele Leute hören ohnehin einfach „Radio“ und machen sich gar keine Gedanken, welcher Sender das ist. Und selbst dann: Wer weiß noch, welchen Sender er in der einen Viertelstunde zwischen drei und vier Uhr gestern Nachmittag eingeschaltet hatte, als er mit dem Auto unterwegs war? Das viele Gefrage soll der Interviewer auch noch in maximal 15 bis 20 Minuten herunternudeln. Und was bei der Fragerei am Ende herauskommt, soll Investitionsentscheidungen in Radiowerbung stützen? Da lachen ja die Hühner. Misstrauisch waren Auftraggeber und Forscher schon immer gegenüber den Tagesablauferhebungen. In Zeitbudgetstudien haben sie „Befunde“ mit eklatant voneinander abweichenden Ergebnissen zu Tage gefördert. Da gibt es Studien mit ein- und derselben Forschungsanlage, die feststellen, dass die Leute mal eineinhalb und mal gleich vier Stunden pro Tag fernsehen. Damit da kein Missverständnis entsteht: Die Rede ist von hochaktuellen Zeitbudgetstudien, die von führenden Fernsehsendern erst vor kurzem durchgeführt und veröffentlicht wurden. Man kann daraus die nicht gerade verwegene Schlussfolgerung ableiten, dass Tagesablauferhebungen nicht sonderlich viel taugen. Verwegen sind die Erhebungen. Ihre Ergebnisse sind beliebig. Das Beste, was man über sie sagen kann, ist: Entweder stimmen sie, oder sie stimmen nicht. Wenn der Hahn kräht auf 26 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de dem Mist, regnet es, oder das Wetter bleibt, wie es ist. Die Wissenschaftstheorie nennt diesen Quatsch Nonsense-Aussagen. Die Tagesablaufbefragungen der internationalen Hörerforschung sind nichts als in Zahlen gegossene NonsenseKonvolute. Letztendlich basieren alle Befragungen auf der Erinnerungsleistung der Befragten. Und die sieht sich immer stärkeren Strapazen ausgesetzt. Die Hörfunknutzung eines Haushalts erfolgt über viele und technisch unterschiedlich ausgestattete Radiogeräte, die zudem selbst mobil sind und auch Radiohören an jedem beliebigen Ort erlauben. In fast der Hälfte aller Haushalte existiert ein breites Radioprogrammangebot, das eine vielfältige Programmauswahl erlaubt. 200 Radioprogramme pro Land sind in Westeuropa schon fast normal. Eine Spitzenstellung in Europa nehmen Spanien und Italien ein. National, regional oder lokal empfangbar, gibt es hier über 2000 Radiosender. In diesen Ländern sind Hörfunkbefragungen endgültig nur als Karikatur der Mediaforschung zu verstehen. Selbst kleine Länder haben lebhafte Hörfunklandschaften. Mehr und mehr hat sich die Erkenntnis durchgesetzt, dass die guten alten Befragungen der Probleme in der Hörerforschung nicht mehr Herr werden. Und so gibt es seit Beginn der neunziger Jahre eine Reihe von Radiometersystemen, mit deren Hilfe die faktische Hörfunknutzung gemessen und nicht erfragt wird. Alle Metersysteme messen nicht mehr an den Empfangsgeräten – wie das Telecontrol beim Fernsehen ja noch immer tut –, sondern bei den empfangenden Personen. Die mühselige Unterscheidung zwischen „Geräteeinschaltquoten“ und „Personen- oder Familieneinschaltquoten“ fällt damit von vornherein weg. Gemessen wird, was die Personen tatsächlich hören. Ein wesentlicher Fortschritt vor allem bei der Messung der Out-of-Home-Nutzung von Medien. Sie spielt vor allem beim Hörfunk eine große Rolle. Viel Kritik richtet sich gegen das passive Messen der Hörfunknutzung, das auch das so genannte „Zwangshören“ in Läden oder in Taxis erfasst. Immer wieder meinen die Kritiker, die Messung durch Radiocontrol sei zu „weich“: Jedes Gedudele geht in die Messung ein. Beim Fernsehen nach Telecontrol dagegen muss jeder Nutzer seine Personentaste drücken und tut dadurch kund, dass er bewusst fernsieht, dass er oder sie also nicht nur bei laufendem Fernseher irgendwo durchs Haus läuft und vom laufenden Programm überhaupt nichts mitbekommt. Doch der Einwand geht ins Leere. Denn die „Uhr am Arm“ misst ja nur so lange, wie das Programm auch tatsächlich gehört werden kann. Das jedoch muss sogar gemessen werden, weil es ja effektiv wahrgenommen wird. 27 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Schließlich ist es nicht die Aufgabe der Metersysteme, zu messen, warum ein Programm genutzt wird, ob es bewusst, unbewusst oder gar widerwillig gehört wird. Sie messen einzig die Chance, dass eine Person die vom betreffenden Sender ausgestrahlten Töne hören konnte. Und da der Hörfunk in wachsendem Maße zum Hintergrundmedium geworden ist, kommt es auch nicht darauf an zu differenzieren, ob etwas bloß im Hintergrund abgespielt und nicht bewusst oder auch nur gezielt angehört wird. Kontakt ist Kontakt. Gleichwohl bleibt festzuhalten, dass die Personen-Metersysteme beim Hörfunk nun etwas ganz und gar anderes messen als die Geräte-Metersysteme beim Fernsehen. Das mag zwar einigermaßen sinnvoll erscheinen, sollte aber dennoch nicht in Vergessenheit geraten. Insofern ist Kontakt eben doch nicht Kontakt. Im Prinzip gibt es weltweit derzeit drei Entwicklungen: Arbitron (USA) mit dem Portable People Meter (PPM), Infratest Burke und Keyser-Threde (München) mit Radiowatch und Telecontrol (Schweiz) mit Radiocontrol. Alle drei Systeme basieren auf dem Audioabgleich, also dem akustischen Vergleich der vom Radiometer aufgezeichneten Signale und Geräusche mit ausgestrahlten Radiosendungen. Die ordnen sie dann den einzelnen Radiosendern und -programmen zu. Das Portable People Meter (PPM) des amerikanischen Forschungskonzerns Arbitron in Columbia, Maryland, hat ungefähr die Größe eines Pagers. Es ist also kleiner als ein Handy, während die Endgeräte von Radiocontrol und Radiowatch die Größe einer Armbanduhr haben. Sowohl Radiocontrol wie Radiowatch erfassen alle Geräusche über Mikrofon und zeichnen sie auf. Die Mitglieder des Hörerpanels tragen also das Portable People Meter den ganzen Tag über mit sich herum, während das Gerät per Mikrofon die Signalcodes misst. Sie können es sich am Gürtel anbringen, in der Jackentasche oder im Portemonnaie tragen. Am Ende eines jeden Tages stellen die Panelteilnehmer die PPMs auf die BaseStations. Dort werden sie aufgeladen und senden die Tagesdaten an die ArbitronZentrale. Die PPMs selbst sind mit einem Bewegungsmelder ausgestattet, mit dessen Hilfe Arbitron jederzeit nachprüfen kann, ob die Panelteilnehmer das Gerät vorschriftsmäßig bei sich tragen. Das PPM-System besteht also en détail aus vier Komponenten: (1) dem Codiergerät: Der Studio Grade Encoder for Audience Measurement (SGE) besteht bei allen Sendern und sorgt dafür, dass ein für die PPM-Geräte 28 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de erkennbarer, für das menschliche Ohr jedoch unhörbarer Identifikationscode in das laufende Programm integriert wird. (2) dem People Portable Meter (PPM): Dieses batteriebetriebene tragbare Gerät tragen alle Panelteilnehmer den ganzen Tag über mit sich herum. Es identifiziert und registriert die Codes, mit denen die Teilnehmer im Laufe des Tages Kontakt haben. (3) der Basis-Station: Auf sie stellen die Panelteilnehmer am Ende jeden Tages die PPMs, um die Batterien wieder aufzuladen. Die Batterien haben eine Leistungsdauer von 27 Stunden, und die PPMs können die Daten einer ganzen Woche speichern. (4) dem Haushalts-Verbindungsstück („household hub“): Es überträgt die tagsüber gesammelten Daten über die Telefonleitung an die Arbitron-Zentrale und ermöglicht es der Zentrale umgekehrt, die Signalcodes in den PPMs zu aktualisieren. Vorteile technisch gemessener Hörfunknutzung: • eine von Erinnerungsleistung und Motivation unverzerrte Hörfunknutzung; • eine genaue und verlässliche Quantifizierung von Nutzungszeiten und Nutzungsdauer; • eine zuverlässige Erfassung von An-, Ab- und Umschaltvorgängen; • eine valide Erfassung des fragmentierten und sich ständig weiter fragmentierenden Hörfunkmarkts; • zusätzlich auch die Erfassung der Fernsehnutzung. Um die gehörten Radioprogramme zu identifizieren, wertet das PPM eine im Audiosignal enthaltene Kennung, einen Signalcode, aus. Der Code muss also in das Audiosignal eingefügt werden, bevor ein Programm das Studio verlässt. Voraussetzung für den Einsatz des Arbitron-Systems ist folglich die überschneidungsfreie Zuordnung eines individuellen Signalcodes für jeden einzelnen Radiosender. 29 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Das System funktioniert also nur, wenn die Signalcodes ohne Überschneidungen zugeordnet werden können. Wenn Sender und Programme zeitweise noch für regionale oder lokale Fenster auseinander schalten, was in der europäischen Praxis weit verbreitet ist, funktioniert es erst einmal nicht. Auch dies müsste überschneidungsfrei codiert werden. Ein Problem stellt die Qualität des Signalcodes und dessen Hörbarkeit dar. Er muss in einem Frequenzbereich ausgestrahlt werden, den auch Lautsprecher minderer Qualität noch wiedergeben können. Tatsächlich haben sich in den verschiedenen Tests, die seit Beginn des PPM-Einsatzes gefahren wurden, immer wieder Probleme bei der Ausstrahlung und der korrekten Identifizierung der Signalcodes ergeben. Hier liegt also offenbar eine der größeren Fehlerquellen des Systems. Beim Audioabgleich verwendet Arbitron ein Online-System. Das hat Vorteile, weil so die Daten bereits zum Zeitpunkt der Nutzung im Metergerät gewonnen werden und unmittelbar zur Auswertung vorliegen. Inzwischen testen die beiden US-Forschungskonzerne Arbitron und Nielsen Media Research sogar den Einsatz des PPM für die Hörfunk- und die Fernsehforschung zugleich. Das PPM wurde übrigens schon 1992 entwickelt und versuchsweise auch eingesetzt. Es wurde auch von vornherein als Instrument von Fernseh- und Hörfunkforschung zugleich verstanden. Seit 1998 liefen mehrere groß angelegte Tests mit dem PPM in der kontinuierlichen Hörfunkforschung in Manchester/England, Wilmington/Delaware und schließlich 2002/03 auch in Philadelphia sowie in Kanada und Australien. Der Einsatz des People Portable Meter macht es möglich, die Daten mit Hilfe einer Panelanlage zu erheben. Bei den Tagesablauferhebungen der klassischen Hörerforschung war der Einsatz von Panels nicht ratsam. Nur allzu leicht hätten sich die Teilnehmer auf die Radionutzung konditionieren lassen. Für europäische Verhältnisse ist das Arbitron-Peoplemeter indes kaum geeignet. Um brauchbare Daten zu gewinnen, müssen ja alle Radiosender – und zwar auch diejenigen, die aus dem Ausland einstrahlen – eine Codierung verwenden. Um das zu ermöglichen, müsste erst eine europäische Wellenkonferenz eine entsprechende Vereinbarung beschließen. Und ob die für alle europäischen Staaten einen solchen Beschluss fasst, nur weil ein Land ein Radiometersystem einführen möchte, steht in den Sternen. Das in der Schweiz seit 2001 eingesetzte Radiocontrol-System verwendet eine Offline-Lösung. Die gehörten Radioprogramme werden in der RadiocontrolArmbanduhr stichprobenartig digitalisiert und datenreduziert aufgezeichnet. Erst 30 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de in einem weiteren Verarbeitungsschritt zu einem späteren Zeitpunkt werden durch Vergleich mit den an zentraler Stelle gespeicherten Programminhalten die eigentlichen Nutzungsdaten ermittelt. Die Messgeräte sind daher wenig aufwändig ausgestattet, da nur ein Mikrofon, ein Speicherchip und eine Batterie zur Energieversorgung benötigt werden. Kernproblem ist der zuverlässige Mustervergleich, der auch bei überlagerten Störgeräuschen sicher arbeitet. Da Radiocontrol ausschließlich das vom Lautsprecher wiedergegebene Audiosignal verwendet, ist das System unabhängig von der Entwicklung neuer Übertragungstechniken. Radioprogramme mit gleichen Inhalten, aber unterschiedlicher Senderherkunft können nicht unterschieden werden. Aber es bietet dafür die Option, die Fernsehnutzung ebenfalls akustisch zu erfassen. Die Radiowatch verwendet zur Identifikation des gehörten Programms den Mustervergleich. Er wird online im tragbaren Messgerät durchgeführt. Dazu ist in die Radiowatch ein Radiotuner (UKW) eingebaut, der die empfangbaren Audiosignale direkt abgleicht und die so gewonnenen Nutzungsdaten im Gerät abspeichert. Die eigentliche Herausforderung liegt darin, in einem Gerät von der Größe einer Armbanduhr Empfangs- und Decodiereinrichtungen unterzubringen, die alle Empfangswege der Radioverbreitung abdecken. Darüber hinaus muss in die Radiowatch auch eine entsprechende Antennentechnik implementiert werden, um eine vergleichbare Empfangsqualität wie zu Hause oder im Auto sicherzustellen. PPM und Radiowatch können permanent aufzeichnen, eine sekundengenaue Reichweitenmessung ist also möglich. Demgegenüber schneidet Radiocontrol im Minutentakt jeweils vier Sekunden mit, um die einzusammelnde Datenmenge gering zu halten. Arbitron ruft jede Nacht online über Docking-Stations die Daten ab und hält dadurch die Option täglicher Quoten offen. Bei Radiowatch und Radiocontrol werden die Uhren nach Ablauf der Feldzeit zur Auswertung eingesammelt. Dementsprechend erlauben die Konzepte der Datenkomprimierung und -speicherung, die Chiptechnik und die Kapazität der Batterien bei beiden Systemen eine Tragedauer von mindestens acht Tagen. Natürlich gibt es gar keinen Zweifel, dass die permanente Messung (PPM und Radiowatch) gegenüber der punktuellen Messung (Radiocontrol) gerade angesichts der verbreiteten Erratik in der praktischen Hörfunknutzung einen entscheidenden Vorzug an Genauigkeit darstellt. Das macht es nämlich möglich, die Nutzung auch sehr kurzer Sendeeinheiten akkurat zu erfassen. Man kann sogar die Hördauer für einzelne Musikstücke messen und beispielsweise herausfinden, 31 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de wie lange die Hörerinnen und Hörer etwa eine ganze Symphonie durchhören oder ob sie vorher abschalten. Nachteile von Radiometersystemen: • Bestimmte Arten der Hörfunknutzung wie Radiohören über Kopfhörer, Hörfunknutzung in Haushalten mit Kabelanschluss oder Satellitenempfang, und vor allem die Autohörfunknutzung werden gar nicht oder unzureichend erfasst. • Sie können nicht zwischen unbewusster und bewusster Nutzung unterscheiden. Messen sie also tatsächlich das Radiohören? Oder ist das Messergebnis eine Mischung aus bewusstem, auch nebenbei erfolgtem Radiohören und bloß eingeschaltetem Radiogerät? • Im Push-Button-System der Fernsehforschung müssen die Panelteilnehmer ihre Personentaste drücken, um als Zuschauer identifiziert zu werden. Ein Radiometer hingegen zeichnet automatisch auf. Was genau misst es also? • Statistische Informationen und die Rahmenbedingungen der Hörfunknutzung wie Tagesablauf und Tätigkeiten müssen so oder so weiter erhoben werden. • Beim Tragen des Radiometergeräts besteht die Gefahr einer Konditionierung der Befragten auf den Untersuchungsgegenstand „Radiohören“. Damit wird also ein eher atypisches Nutzungsverhalten gemessen. • Es fallen deutlich höhere Erhebungs- und Auswertungskosten bei allen Nutzern von Radiodaten an. Die Bandbreite der Möglichkeiten ist einfach größer. Die sekundengenaue Erfassung der Nutzung gestattet es auch, genau zu erfassen, welche Personen wie lange einen konkreten Werbespot oder Kurznachrichten hören. Vielleicht noch entscheidender: Es bedarf weit weniger Prüf- und Auswertungskonventionen. Wenn nur vier Sekunden pro Minute gemessen wird, muss man sich ja im Wege einer Konvention darüber einigen, wie die nicht gemessenen Sekunden der jeweiligen Minute zu behandeln sind. Ein Radiometersystem besteht indes nicht nur aus einem Messgerät. Für PPM ist es auch erforderlich, dass bei jedem Radiosender ein Signaltongeber installiert 32 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de ist. Bei Radiocontrol ergibt sich der Zusatzaufwand vor allem aus den zusätzlich erforderlichen Sendererfassungsstationen. Um beispielsweise für Spanien einen Abgleich vornehmen zu können, wäre es erforderlich, für den Erhebungszeitraum parallel alle rund 2000 Radiosender zentral oder dezentral 24 Stunden am Tag aufzuzeichnen – ein aberwitziger technischer Aufwand. Nach Ansicht des deutschen Hörfunk- und Fernsehforschers Dieter K. Müller sind fünf Anforderungen an Radiometersysteme unverzichtbar: • korrekte Senderidentifikation; • Erfassung sämtlicher Sender unabhängig von den Übertragungswegen (UKW, LW, MW, KW und künftig auch ADR und DAB); •vollständige Erfassung der Hörfunknutzung, unabhängig vom Nutzungsort; • Messung an der Person und nicht am Empfangsgerät, wobei das Messgerät ein Format wie zum Beispiel eine Armbanduhr haben sollte, damit es komfortabel getragen werden kann und eine Konditionierung der Testperson auf den Untersuchungsgegenstand Radiohören weitgehend ausgeschaltet wird; • Miniaturisierung der Metergeräte bei verträglichen Kosten. Methodisch gesehen sind zwei Ansätze möglich: ein festes Panel oder ein Adhoc-Studienansatz. Ein festes Panel ist angebracht für die kontinuierliche Erfassung einer überschaubaren Anzahl weitgehend national verbreiteter Programme. Bei regionalen Medien, wie Radio, muss die Stichprobe einen Umfang haben, der es erlaubt, für jeden einzelnen Sender die Gesamtzahl seiner Hörer über den Tag hinweg wie auch die Hörerstrukturen zuverlässig abzubilden. Auch ein Radiometersystem erlaubt keine geringere Stichprobengröße. Es ist zu vermuten, dass kurze Hörabschnitte, gelegentlich oder zufällig gehörte Sender, fremdbestimmte und unbewusste Nutzungsvorgänge per Radiometer besser gemessen werden als mit konventionellen Erinnerungstechniken. Es ist jedoch auch zu vermuten, dass häufig nur „Gerät eingeschaltet“ gemessen wird, aber nicht die willentliche Hörfunknutzung, die die heutigen auf Erinnerung basierenden Erhebungstechniken reproduzieren. Im Ergebnis könnten damit möglicherweise die „Einschaltquoten“ in Nebenzeiten und von Minderheitensendern gestärkt werden. Vielleicht haben aber auch umgekehrt Minderheiten- oder Einschaltprogramme überhaupt keine Chance, in einem solchen System valide abgebildet zu werden. Im Ergebnis könnten Radiometersysteme damit auch andere Nutzungsniveaus, andere Strukturen und damit 33 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de andere Marktverhältnisse produzieren. Das bedeutet jedoch nicht, dass gemessene Radiodaten auch der Realität näher kommen. Probleme ergeben sich aus der Struktur der Radiolandschaft. Viele lokale Sender strahlen ein- und dasselbe Mantelprogramm aus. Das Audiomatching-System kann in diesem Fall nur die Programminhalte identifizieren, nicht aber den ausstrahlenden Sender. Das gilt auch in den Fällen, in denen Sender ihre Programme nachts zusammenschalten. Ebenso wenig geben Radiometersysteme Auskunft über den Nutzungsort, ob also zu Hause oder im Auto gehört wird. Auch über irgendwelche Nebentätigkeiten neben dem Radiohören und über die Nutzung konkurrierender Medien geben sie keine Auskunft. Es entsteht ja auch eine ganze Reihe neuer Fragen, die es vor der technischen Messung gar nicht gab: • Was bedeuten ganz kurze „Hörlücken“? Hat der Teilnehmer trotzdem Radio gehört und nur mal etwas auf die Messuhr gelegt? • Was bedeutet Radiohören ohne Tragen der Uhr? Hat der Teilnehmer die Uhr beim Duschen abgelegt und hört dennoch intensiv Radio? Und wenn er beim Mittagsschlaf oder sonst aus irgendeinem Grund tagsüber die Uhr einmal ablegt? • Welchen Sinn und welche Aussagekraft haben bei sekundengenauer Messung noch die „Viertelstunden-Nettoreichweite“ und die „Stunden-Nettoreichweite“? • Und fundamental: Was bedeutet „Radiohören“ überhaupt? Nach der Messmethode läuft es ja darauf hinaus: Radiohören findet statt, wenn ein festgelegter Geräuschpegel das Gerät am Arm erreicht. • Unter welchen Bedingungen wirkt Hörfunkwerbung? Wenn sich die Personen bewusst daran erinnern, dass sie einen Spot gehört haben? Wenn sie sich an Inhalte erinnern? Oder wenn sie sich nicht einmal bewusst daran erinnern können, etwas angehört zu haben? Einen Zahn mussten sich die Beobachter und Kritiker der traditionellen Hörfunkforschung längst ziehen lassen: dass die Chose mit den hübschen kleinen Metergeräten billiger werden könnte als mit Interviewern und Befragten. Im Gegenteil. In der Schweiz zahlen die einzelnen Sender für Radiocontrol im Schnitt rund 70 Prozent mehr als vorher. Schätzungen von NFO Infratest gehen davon aus, dass die Kosten für die Messung mit der Radiowatch gut dreimal so 34 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de hoch liegen wie für die derzeit noch praktizierte Befragung der Radiotranche in der Media-Analyse (MA) der AG.MA mit jährlich rund 55 000 Interviews. Die Aussichten für die Einführung eines Metersystems in Deutschland sind indes schlecht: Die wirtschaftliche Lage ist düster, die Aussichten auf Besserung sind gering. Wer mag da schon auf ein teureres System umstellen, bei dem die Reichweiten im Tagesverlauf und die Hördauer voraussichtlich um ein Drittel sinken werden? Eine auf dem Höchststand der technischen Entwicklung stehende Innovation stellt das in den Jahren 1999 bis 2003 entwickelte Forschungssystem für die Außenwerbung in der Schweiz, Swiss Poster Research, dar. Es beruht ebenso wie Telecontrol für das Fernsehen und Radiocontrol für den Hörfunk auf technischer Messung statt auf Befragung. Im Mittelpunkt steht die Messung der Plakatbeachtung, bei der wiederum die Mobilität der Passanten eine zentrale Rolle spielt. Das System misst die Werbewirkung von Plakaten, indem es die Bevölkerungsmobilität mit Hilfe des Global Positioning System (GPS) analysiert. Dadurch können alle Bewegungen einer Person, die ein GPS-Gerät mit sich trägt, erfasst werden. Sämtliche erfassten Wege werden auf numerische Karten übertragen, die ebenfalls Informationen über alle Plakatstellen (Koordinaten, Format, Beachtungsraum usw.) enthalten. So kann genau bestimmt werden, welche und wie viele Personen sich im Umkreis einer Plakatstelle aufgehalten haben. In der Schweiz steht bereits eine ganze Reihe von offiziell erhobenen Daten zur Mobilität in der Freizeit, zum Einkaufen und zur Arbeit zur Verfügung. Diese stammen teilweise aus der Volkszählung und werden zusätzlich noch mit weiteren Daten verknüpft. Dadurch lassen sich relativ gute Aussagen über die Mobilität von soziodemografisch definierten Personen machen. Mit entsprechenden Modellrechnungen können die Bewegungen zwischen den Gemeinden recht gut erfasst werden. Und bei kleineren Gemeinden genügen diese Angaben auch. Je kleiner eine Gemeinde, desto größer die Wahrscheinlichkeit, an einer Plakatstelle vorbeizukommen. Daraus lassen sich die Kontaktchancen bei einer durchschnittlichen Belegung, nicht aber einer einzelnen Plakatstelle ableiten. Für größere Gemeinden genügt dies nicht. Hier bedarf es zusätzlicher Informationen, die dank des neuen Forschungsansatzes erhoben werden können. Berücksichtigt werden dabei die zehn größten Agglomerationen. 35 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Auf Grund der Schlüsselfunktion des Wohnorts kommt der Auswahl der Auskunftspersonen große Bedeutung zu. Dabei geht es darum, in den jeweiligen Zielgebieten Zellen zu bilden, deren Bewohnerinnen und Bewohner auf Grund ihrer Verkehrsverbindungen ein möglichst ähnliches Mobilitätsverhalten aufweisen. Diese Zellen bestehen vorwiegend aus kleinen Gemeinden einer Agglomeration oder aus Ortsteilen bzw. Quartieren von Gemeinden. Für jede dieser Zellen muss eine repräsentative Stichprobe (mit Quotenvorgaben nach Geschlecht und den vier Altersgruppen 15 bis 29, 30 bis 44, 45 bis 59 und über 60 Jahre) gebildet werden. Die Erhebung dieser Werte geschieht nach dem Konzept von Swiss Poster Research mit Hilfe von GPS-Geräten. Damit können während einer Woche sämtliche Bewegungen erfasst werden, während bei einer Befragung höchstens die Rekonstruktion des gestrigen Tages möglich ist. Allerdings hat die Messmethode zwei Nachteile: (1) Sie ist sehr teuer, und (2) gemessen werden kann nur dann, wenn auch Satellitenempfang möglich ist. Innerhalb von Gebäuden (Bahnhöfen, Shopping-Zentren, Parkhäusern) und in öffentlichen Verkehrsmitteln ist das nicht möglich. Ausgerechnet dort aber finden viele Kontakte mit Außenwerbung statt, die man nicht einfach links liegen lassen kann. Man behilft sich damit, dass für jedes dieser Objekte die Frequenzzahlen ermittelt werden und mit einem Kenner des Objekts abgeschätzt wird, welche Plakatstelle welchen Anteil an den Frequenzen haben dürfte. Damit jedoch erklärt das Verfahren die Veränderungen im Nutzungsverhalten zur Quantité négligeable und ersetzt die Erhebung des tatsächlichen Verhaltens durch Schätzung auf der Basis früheren Verhaltens. Mit diesem Vorgehen könnte man die Notwendigkeit jedweder Erhebungen für überflüssig erklären und sie durch grobe Schätzung „über den Daumen“ ersetzen. Anschließend werden die Passagen in Kontakte umgewichtet. Allerdings ist offen, ob eine solche Differenzierung der Kontakte nach soziodemografischen Kriterien möglich ist, so dass diese Plakatstellen bei der Berechnung der Reichweite integriert werden könnten. Swiss Poster Research ist eine von den beiden schweizerischen Plakatgesellschaften Allgemeine Plakatgesellschaft (APG) und Clear Channel Plakanda (CCP) getragene Gesellschaft. Verantwortlich für die Durchführung der Studie ist die input Unternehmens- und Marketingberatung, Zürich, die zugleich als Geschäftsstelle von Swiss Poster Research fungiert. Als Generalunternehmerin 36 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de ist input auch für die Datenauswertung und das zu entwickelnde Planungstool verantwortlich. Swiss Poster Research hat zwei Forschungsobjekte: die Plakatstellen und die Bevölkerung. Erfasst werden für beide Objekte die Kontaktgelegenheiten (Anzahl Passagen) und die Kontakte auf Werbeträgerebene. Zur Mobilitätsanalyse mit Hilfe des Global Positioning Systems (GPS) erhalten alle Teilnehmer der Erhebung ein Empfangsgerät in der Größe eines Handys, das während einer Woche bei jedem Gang außerhalb der Wohnung getragen werden muss. Das Gerät zeichnet laufend die Positionen der Probanden auf. Nach einer Woche werden die gesammelten Daten ausgewertet und auf geografische Systeme übertragen, in denen auch alle Plakatstandorte verzeichnet sind. Anschließend werden die gemessenen Bewegungen mit den Plakatstandorten verknüpft. Dabei ist klar definiert, in welchem Fall eine Passage in welcher Gewichtung als Werbeträgerkontakt gezählt wird. Auf der Basis von empirischen Studien wurde festgelegt, dass grundsätzlich alle Kontakte einfließen, die in einem Raum von maximal 80 Meter Distanz und einem Winkel von 150 Grad zur Plakatstelle erfolgen (je 75 Grad links und rechts einer senkrechten Linie zur Plakatstelle). Innerhalb dieses Beachtungsraums gelten verschiedene Parameter. So wird ein Winkel von unter 45 Grad zwischen einer senkrechten Linie zur Plakatfläche und der Passage als frontaler Kontakt definiert. Liegt dieser Winkel zwischen 45 und 110 Grad, ist es ein paralleler Kontakt und bei über 110 Grad überhaupt kein Kontakt. Entscheidend für das Gewicht der Beachtungschance ist auch die Geschwindigkeit der Passage. Auf Grund der Ergebnisse des Pilottests wurde entschieden, dass bei einem Tempo von weniger als 10 km/h ein voller Kontakt gewertet wird. Erfolgt die Passage schneller, wird ein paralleler Kontakt mit dem Faktor 0,5 heruntergewichtet. Zur Tageszeit wurde festgelegt, dass bei beleuchteten Stellen alle Passagen einfließen, während bei unbeleuchteten Stellen grundsätzlich nur die Kontakte zwischen 6 und 20 Uhr gezählt werden. Dadurch fielen beim Pilottest z.B. 8,9 Prozent aller Passagen weg. Gewichtet wurde auch auf der Basis von Ergebnissen ausländischer Untersuchungen eine Häufung von Flächen am gleichen Standort. Bei zwei Flächen 37 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de beträgt der Faktor 0,8, bei drei 0,65 und bei vier 0,5. Im Extremfall führt dies dazu, dass die Kontakte einer schnellen, parallelen Passage (Faktor 0,5) vor einer Ansammlung von vier Stellen (Faktor 0,5) insgesamt mit dem Faktor 0,25 gewichtet werden. Als Grundgesamtheit wird die Bevölkerung ab 15 Jahren im untersuchten Raum definiert. Erfasst werden alle Flächen F12 und F200 in diesem Raum. Das Forschungskonzept wurde Ende 2002 im Rahmen einer Pilotstudie in Winterthur getestet. Zu überprüfen waren die Zuverlässigkeit und die Leistungsstärke der entwickelten GPS-Geräte, das Verhalten der Personen beim Tragen der Messgeräte, die Software zur Analyse der gesammelten Daten und die Handhabung möglicher Probleme, beispielsweise bei der Rekonstruktion von Wegen. Im Test bestätigte sich, dass die GPS-Technik zur Erfassung der Mobilität einer Person über mehrere Tage hinweg geeignet ist. Auch die entwickelte Software funktionierte. Schwieriger war es, Testpersonen für das Tragen von GPS-Geräten in der Größe eines Mobiltelefons zu gewinnen. Hinterher gaben allerdings mehr als 80 Prozent der Testpersonen an, sie würden wieder ein solches Gerät während einer Woche mit sich tragen. Problematisch bleibt die Erfassung der Bewegungen der Benutzer von öffentlichen Verkehrsmitteln, weil dort der Satellitenempfang nicht funktioniert. Die Untersuchung der Bevölkerungsmobilität basiert auf der Beobachtung des Verhaltens während mindestens einer Woche. Dadurch ist es möglich, zwischen den Bewegungen einer Person und einer spezifischen Plakatstelle eine Verbindung herzustellen, und es müssen die Berechnungen nicht mehr auf einen Durchschnittswert für sämtliche Plakatstellen abgestützt werden. Ausgangspunkt für die Methode ist die Überlegung, dass die unmittelbare Umgebung einer Plakatstelle entscheidet, wie hoch die potenzielle Kontaktzahl ist, welches Publikum vorwiegend an einer Stelle vorbeikommt und wie intensiv ein Plakat wahrgenommen werden kann. Im Unterschied zu allen anderen Medien ist das Umfeld eines Plakats wesentlich stabiler und wird durch eher langfristige Veränderungen (Neubauten, neue Verkehrsführungen, Geschäftsschließungen usw.) beeinflusst. Einen großen Einfluss auf die Kontaktchancen einer Anschlagstelle hat der Wohnort als der Ausgangspunkt der täglichen Mobilität einer Person. Im Pilottest ergaben sich kaum Probleme mit der Handhabung. Die Geräte funktionierten aber lediglich bei 79 Prozent der Probanden während der ganzen 38 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Woche. Diese technischen Probleme sollen im Anschluss an den Pilottest aber behoben worden sein. Die Akzeptanz bei den Probanden der Pilotstudie bezeichneten die Veranstalter als gut. 65 Prozent würden sehr gerne oder gerne wieder bei einem solchen Projekt mitmachen, weitere 24 Prozent immerhin eventuell. Allerdings war der Rekrutierungsaufwand beträchtlich. Er lag im gleichen Rahmen wie für die Rekrutierung von Teilnehmern für Radiocontrol. 21 Prozent der Testteilnehmer erklärten, dass sie das Gerät nicht immer dabei hatten. Mehrheitlich waren das ausgerechnet Jugendliche, die sich außer Haus begaben. Für ein Medium, das seine Stärke gerade in dieser Zielgruppe hat, ist das unbefriedigend. Mit dazu beigetragen hat möglicherweise das unattraktive Design des für den Pilottest eingesetzten GPS-Geräts. In der endgültigen Version soll es deshalb stärker dem Erscheinungsbild eines Handys angeglichen werden. Getestet wurde auch der Einsatz eines mit GPS kombinierten Handys. Die Untersuchungen des Mobilitätsverhaltens in den zehn größten Agglomerationen sollen bis 2006 abgeschlossen sein. Die Ergebnisse des Pilottests in Winterthur zeigten z.B., dass an Dienstagen die höchste Zahl Passagen erzielt werden, während Sonntage erwartungsgemäß die schwächsten Tage sind. Der schwächste Werktag war angesichts teilweise geschlossener Geschäfte der Montag. Aber er brachte es dennoch im Rahmen des Pilottests auf 60 Prozent der Passagen des Dienstags. Die Aufteilung der Passagen auf die einzelnen Stellen ergibt, dass 53 Prozent von den 30 Prozent stärksten Plakatstellen bewirkt werden, während die 30 Prozent schwächsten Stellen lediglich auf 9,3 Prozent aller Passagen kommen. Die Geschwindigkeit lag bei 21,3 Prozent aller Passagen unter 10 km/h. 26,3 Prozent der Passagen erfolgten frontal, 43,4 Prozent parallel, und der Rest war nicht kontaktwirksam. Insgesamt wurden während des Pilottests über 133 000 Passagen gemessen. Davon fielen aber rund 30 Prozent aus, weil sie nachts mit unbeleuchteten Stellen oder aus der falschen Richtung erfolgten. Als Medienkontakte wurden rund 93 000 Passagen definiert. Fast 43 000 davon mussten als parallele Kontakte mit mehr als 10 km/h Geschwindigkeit mit dem Faktor 0,5 gewichtet werden, so dass am Schluss noch knapp 72 000 Werbekontakte blieben. Die Grundgesamtheit besteht aus allen Personen einer Agglomeration, die älter als 16 Jahre sind. Deshalb werden alle Kontakte durch die außerhalb der jeweiligen Agglomeration wohnenden Personen nicht berücksichtigt. 39 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Allerdings könnte dem hochkomplexen Swiss Poster Research ein ähnliches Schicksal wie dem deutschen Lkw-Mautsystem drohen: Wie alle hochkomplexen Systeme ist es höchst störanfällig und könnte es an vielen Stellen immer wieder erforderlich machen, dass man auf der einen Seite mit hohem Komplexitätsgrad misst und dann aber bei der Bewältigung der Systemlücken alle Fünfe eine gerade Zahl sein lässt. Noch aus einer ganz anderen Richtung droht dem System große Gefahr. Seit Anfang 2004 nämlich vermarkten die Telecontrol-Gruppe und die GfK AG international die „Mediawatch“ unter der Bezeichnung „Mediacontrol“. Damit tritt Mediacontrol international in Konkurrenz zu einer Reihe von nationalen Mediaanalysen, vor allem zu Swiss Poster Research. Die erstmals 2003 präsentierte Mediawatch stellt die zweite Generation der Radiocontrol-Uhr dar. Sie kann über das Radio hinaus auch andere Medien messen. Neben technischen Verbesserungen ist die Mediacontrol-Uhr mit einem zusätzlichen Empfänger ausgestattet, der Signale empfangen kann, die von kleinen Sendern ausgestrahlt werden. So kann beispielsweise auch der Hörort festgestellt werden, nachdem der Panelteilnehmer einen solchen Minisender am Autoradio, an der Heimstereoanlage, am Radiogerät im Büro oder am Computer angebracht hat. Damit lässt sich die gesamte auditive Mediennutzung differenziert messen. Die Mediacontrol-Uhr misst dreimal 5 Sekunden pro Minute (vorher nur einmal), hat dank verbesserter Batterien eine längere Tragezeit, verfügt über einen optimierten Hörbereich, und die Hörfunknutzung via Kopfhörer kann ebenfalls gemessen werden. Daneben wurde die Auswertungszentrale, die so genannte Sound Sampling Unit, verbessert, und neu gibt es auch eine Haushalt-Docking-Station für die Uhr, die via Modem eine tägliche Online-Berichterstattung ermöglicht. Ferner konnten die Kosten sowohl für die Uhr als auch für die Zentrale um 50 Prozent gesenkt werden. Mediacontrol kann neben der Radionutzung bei derselben Zielperson ohne Zutun des Trägers auch die Nutzung der Medien Kino und Plakat messen. Sie soll auch die Messung von Printmedien ermöglichen. In die Uhr ist ein Modul eingebaut zur Messung des Printkonsums. Anders als bei Radio, Kino und Plakat, wo die Messung automatisch erfolgt, muss die Testperson bei der Messung des Printkonsums aber selbst aktiv werden. 40 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Liest eine Testperson eine Zeitung, sollte sie mittels eines Rädchens auf dem Uhrendisplay 200 Titel durchscrollen und den entsprechenden Titel eingeben. Regelmäßig gelesene Titel erscheinen auf der Liste zuoberst. Die auf dem Display der Uhr erscheinenden Printtitel müssen mittels Tastendruck als „heute gelesen“ markiert werden. Damit der Panelteilnehmer nicht jedes Mal durch die gesamte Titelliste scrollen muss, wird im Rekrutierungsinterview nach seinem Printmedienkonsum gefragt, und die entsprechenden Titel erscheinen dann an der Spitze der Liste. Abends wird die Testperson nach der Vollständigkeit ihrer Angaben gefragt. Das Gerät misst weiterhin als Uhr am Handgelenk die Radio- und TV-Nutzung mit Hilfe eines eingebauten Mikrofons. Das Messen der Printnutzung ist auf aktive Mitarbeit angewiesen. Bei der Plakat- und Kinoerhebung bedarf es solarbetriebener Sender in der Größe eines Chips, die an den einzelnen Plakatstellen oder in den Kinosälen platziert werden und stetig je ein individuelles Signal aussenden. Kommt ein Mediacontrol-Panelist in die Nähe, erkennt dessen Uhr die Signale und speichert diese ebenso wie den Zeitraum des Empfangs. Wenige Probleme scheint es beim Medium Kino zu geben. Die kleinen Sender ließen sich ohne großen Aufwand in den Kinosälen platzieren, womit schnell Nutzungszahlen für das Kino erhoben werden könnten. Es wäre technisch gesehen auch relativ einfach möglich, Plakatstellen mit solchen Sendern auszurüsten. Allerdings müssten in diesem Fall bei jeder Plakatstelle Sender montiert werden. Die tägliche Mitwirkungspflicht, auch in unpässlichen Momenten, stellt wohl die Achillesferse von Mediacontrol dar. Offen ist auch, ob die solarbetriebenen Sender selbst bei längeren Schlechtwetterperioden oder Schneefall zuverlässig funktionieren. Möglich ist auch Vandalismus an Plakatstellen. Andererseits ist Mediacontrol in der Lage, mehrmals jährlich aussagekräftige Resultate zu liefern, eine entsprechende Stichprobe vorausgesetzt. Bei der Telecontrol-Gruppe sind längst Überlegungen über erweiterte Einsatzmöglichkeiten des Mediacontrol-Systems im Gange: Verbunden mit Sendern in Filialen von Großverteilern etwa gäbe das System diesen Unternehmen die Information, über welche Medien sie ihre Kunden am besten erreichen. Und auch in andern Bereichen der Marktforschung und Wissenschaft sieht man für das Gerät ein weites Anwendungsfeld. 41 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Beim Fernsehen hat sich die technische Messung schon seit den 1980er-Jahren als eindeutiger Fortschritt gegenüber der Befragung erwiesen. Darüber verliert heute niemand mehr ein Wort. Wie sich die technische Messung bei allen anderen Medien entwickelt, wird die Zukunft zeigen. Ganz sicher ist schon jetzt, dass sie eminente Vorzüge gegenüber der reinen Befragung besitzt. Wolfgang J. Koschnick wurde 1942 in Danzig geboren und wuchs in Bremen auf. Er studierte Politikwissenschaften und Volkswirtschaftslehre und arbeitete als Journalist in Deutschland und den USA, bevor er Mitarbeiter des Instituts für Demoskopie in Allensbach wurde. Es folgten Chefredaktionen bei den Zeitschriften Horizont Advertising Age in Frankfurt am Main, ZV + ZV und Copy in Düsseldorf. Koschnick ist heute als Unternehmensberater, Fachjournalist und Buchautor selbstständig und hat über 40 anerkannte wissenschaftliche Nachschlagewerke für Management, Marketing, Marktkommunikation, Markt-, Media-, Kommunikations- und Sozialforschung geschrieben. 42 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Radiocontrol – Die Befunde zeigen, dass die Zukunft dem Audiometer gehört Von Matthias Steinmann und Manuel Dähler Die zunehmende Vielfalt auch der Radiolandschaft führt die herkömmlichen Befragungsinstrumente zunehmend an ihre Grenzen. Dies zeigen verschiedene Erkenntnisse aus der Einführung eines Audiometersystems in der Schweiz und nun auch in Großbritannien. Der Radiokonsum zeigt sich als vielfältiger, breiter und weniger gewohnheitsgebunden als bisher angenommen. Diese Annahmen oder Erkenntnisse stützen sich auf Daten, die mit Instrumenten gewonnen wurden, die eben diese Annahmen unterstützen – das Wahrnehmen des Forschungsgegenstandes ist eben nicht vom eingesetzten Beobachtungsverfahren zu trennen1. Unser Artikel soll ein Beitrag sein, auch in diesem Bereich der Publikumsforschung einen Perspektivenwechsel einzuleiten. Blicken Sie mit uns „um die Ecke“ auf das Neue! Ausgangslage Die Kommunikationsstrukturen in den westlichen Gesellschaften werden zunehmend komplexer, einerseits durch die Bildung neuer sozialer Gruppen („Milieus“, Lifestyles, Subkulturen), andererseits durch die Betonung der individuellen Freiheiten und Möglichkeiten unterstützt durch technologische Entwicklungen, die eine große Mobilität ohne Verlust der Kommunikationsmöglichkeiten ermöglichen. In diesem Zusammenhang bilden sich auch neue Bedürfnisse und Nutzungsmuster in Bezug auf das Radio heraus. Von technischer Seite steht der Produktion und Verbreitung einer Vielzahl neuer Radioprogramme nichts im Wege. Die Liberalisierung des Radiomarktes und das Bereitstellen neuer Verbreitungsmöglichkeiten wie Kabelnetzwerk, Satellit, digitale terrestrische Verbreitung oder Internet sind weit fortgeschritten. Hinzu kommen die Besonderheiten des Mediums Radio: Es ist ein omnipräsentes Individualmedium. Als solches dient das Radio heute zu einem beachtlichen Teil als Hintergrundmedium, wird also mit einem geringen Grad an Aufmerksamkeit genutzt. Zudem ist das Radio ein auditives Medium, der Höreindruck ist in der Regel flüchtiger als visuelle Eindrücke. 1 als Einführung: Maturana, H.R., Varela, F.J.: Der Baum der Erkenntnis. Bern (Scherz) 1987; oder: Watzlawick, P.: Die erfundene Wirklichkeit, München (Piper) 1985 43 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Die Kombination von größerem Angebot, längerer Nutzung und niedrigerem Aufmerksamkeitsgrad führt zu einer zunehmenden Erhebungsproblematik, insbesondere in Bezug auf die erinnerungsgestützten Befragungsmethoden und die Tagebuch-Methode, deren Validität in absehbarer Zeit in Frage gestellt wird. Gleichzeitig wachsen die Bedürfnisse der Programmschaffenden und der Werbung nach zunehmend präziseren Daten zur Planung und Kontrolle, die auch immer schneller verfügbar sein müssen. Aus all diesen Gründen gehört dem Radiometer die Zukunft. Mit dem hier vorgestellten System Radiocontrol werden seit dem Jahre 2001 in der Schweiz die offiziellen Hörfunkdaten erhoben. Die Funktionsweise von Radiocontrol Die von der interessierenden Person gehörten Radioprogramme werden in einem tragbaren Messgerät (Armbanduhr) stichprobenartig digitalisiert und datenreduziert aufgezeichnet: Ein integriertes Mikrophon registriert in regelmäßigen Abständen (wählbar sind 20, 30, 60 oder 120 Sekunden) für 4 Sekunden die Umgebungsgeräusche, die unmittelbar digitalisiert und um den Faktor 120 reduziert werden. Zurück bleibt eine Art akustischer Fingerabdruck, der zusammen mit der Aufzeichnungszeit und weiteren Messdaten gespeichert wird. Der Reduktionsprozess ist irreversibel: Die ursprünglichen (analogen) Geräusche können nicht mehr reproduziert werden. Die Uhr schützt damit die Privatsphäre des Trägers, der Datenschutz ist gewährleistet. Die Uhr ist zusätzlich mit einem Thermometer ausgerüstet, um die temperaturbedingten Gang-Ungenauigkeiten des Quarzes softwaremäßig auszukorrigieren. Weiter dienen die Temperaturangaben zusammen mit dem Bewegungssensor zum Feststellen der Tragezeiten des Messgerätes. Der heute eingesetzte Speicher kann gut 10 000 Messpunkte speichern. Werden diese im Minutentakt gesammelt, reicht der Speicher für eine Messperiode von sieben Tagen und ca. sechs Stunden. Ist der Speicher voll, wird die Testperson aufgefordert, die Uhr an die Auswertungszentrale zurückzusenden. Im gleichen Takt wie die Uhr zeichnen verschiedene Computerstationen die direkt ab Antenne, Kabel oder Satellit abgegriffenen interessierenden Hörfunkprogramme auf und verarbeiten sie auf die gleiche Weise wie die Uhr. Allerdings zeichnen diese Stationen während 10 Sekunden auf, um leichte Zeitschwankungen, vor allem aber die durch unterschiedliche Verbreitungsvektoren entstehende Staffelung der Radiosignale aufzufangen: Digitalisierungsprozesse (z.B. DAB) und lange Übertragungswege (z.B. Satellit) verzögern das Radiosignal gegenüber dem UKW-Empfang. Die Stationen sind über ein Netzwerk 44 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de verbunden, um die Aufzeichnungsqualität permanent zu überwachen und die aufgezeichneten Daten zur Auswertungszentrale zu übertragen. Durch den Vergleich der Daten aus den Uhren („Fingerabdrücke“) mit den aufgezeichneten Hörfunkprogrammen („Kartei“) werden die eigentlichen Nutzungsdaten ermittelt. Erfragte und gemessene Nutzungsdaten im Vergleich Vor der Umstellung auf die Radiocontrol-Methode wurde die Hörfunknutzung in der Schweiz durch jährlich 18 000 persönliche Interviews erhoben, die während des ganzen Kalenderjahres durchgeführt wurden. Zahlreiche Untersuchungen im Vorfeld der Umstellung und letztlich auch der dreimonatige Parallelbetrieb ergaben reichlich Material, den Methodenunterschied zu dokumentieren. Im Vergleich zum persönlichen Interview weist Radiocontrol höhere Reichweiten aus, die Hördauer dagegen liegt tiefer als in der Befragung (die gleichen Effekte – allerdings noch ausgeprägter – zeigen sich zwischen der Tagebuchmethode und Radiocontrol, wie mehrere Tests in Großbritannien zeigen). Zwei Hauptursachen führen zu diesem Effekt: Der Faktor Methode Im Befragungsraster der persönlichen Interviews kann je Viertelstunde höchstens ein Sender erfasst werden. Hatte die befragte Person innerhalb dieser Viertelstunde zwei unterschiedliche Stationen gehört, wurde die längere Sequenz notiert. Dem erfassten Sender wurden entsprechend 15 Minuten Nutzung zugeschrieben, auch wenn er beispielsweise nur acht Minuten gehört wurde. Die Uhr dagegen weist aus, was hörbar war: nur acht Minuten des Senders A, aber auch die vier Minuten des Senders B in der gleichen Viertelstunde. Das Messsystem stellt also beide gehörten Stationen fest, was zu höheren Reichweiten führt (Abb. 1), allerdings mit einer kürzeren Nutzungszeit (Abb. 2), dementsprechend sinkt die Hördauer im Methodenvergleich (andere Erhebungsregeln erlauben in diesem Falle das Notieren beider Stationen, was die Unterschiede in der Hördauer weiter vergrößert). Ein Teil der Differenzen ist somit direkt auf die unterschiedlichen Methoden zurückzuführen. 45 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Abb. 1: Vergleich der Tagesreichweiten, erhoben mit der Medienstudie (persönliche Interviews) und Radiocontrol Abb. 2: Vergleich der Nutzungsminuten, erhoben mit der Medienstudie (persönliche Interviews) und Radiocontrol 46 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Der Faktor Mensch Weltweit wurde bis heute die Radionutzung ausschließlich erfragt: telefonisch, in persönlichen Interviews oder schriftlich via Tagebuch. All diese Verfahren stützen sich auf die Erinnerung der Person, die Auskunft gibt. Allerdings wird Auffälliges und Eindrückliches leichter erinnert: der intensive Duft, die grelle Farbe, die große Stille. Alltägliches zeichnet sich dagegen nicht zuletzt durch Unauffälligkeit aus und ist deshalb schwieriger zu erinnern. Hören Sie eigentlich die Mittagsnachrichten am Radio? Tun Sie das täglich – auch gestern? Im Vorfeld der Einführung in der Schweiz wurden 1999 in einem ausgedehnten Test2 135 uhrentragende Personen während der Messwoche spontan von einem Interviewer besucht, der zusätzlich das herkömmliche persönliche Interview durchführte. Auf Grund des Verhältnisses zwischen der gemessenen, auf Viertelstunden hochgerechneten Nutzung und der im Interview erfragten Nutzung wurden die Personen in drei Gruppen aufgeteilt: • Gruppe 1, Die erfragte Nutzung liegt um 15% und mehr über der gemessenen Nutzung: 42% der 135 Fälle • Gruppe 2, Erfragte und gemessene Nutzung unterscheiden sich um weniger als 15%: 18% der 135 Fälle • Gruppe 3: Die erfragte Nutzung liegt um mindestens 15% unter der gemessenen Nutzung: 40% der 135 Fälle Die nähere Betrachtung der Gruppen zeigt deutliche Unterschiede im Bezug auf das Radioverhalten: Die erste Gruppe, deren Nutzung im Interview länger ist als gemessen mit Radiocontrol, hört häufig während längerer Tagesaktivitäten Radio (eine bis mehrere Stunden). Die Messuhr kann hingegen während der im Interview angegebenen Zeiten nur teilweise einen Sender feststellen. Beispielsweise gibt eine Person an, während ihrer Berufsarbeit im Büro Radio zu hören. Von diesen – gemäß Interview – sieben bis acht Stunden Mediennutzung stellt die Messuhr allerdings nur einen Teil fest, da sich die befragte Person nicht ununterbrochen in ihrem Büro aufhält. Weiter kann sie telefonieren, das Fenster zur Straße öffnen oder in anderer Weise die akustischen Bedingungen so verändern, dass das Radio für die Uhr (und natürlich auch für die Person) zeitweise unhörbar wird. Solche Differenzen lassen sich vor allem während der Arbeitszeiten außer Haus, während Arbei2 Steinmann, M. & Dähler, M. (1999): Radiocontrol. Bericht November 1999. SRG idée suisse, interner Testbericht; vgl. auch Dähler, M.: Radionutzung im Spiegel moderner Messinstrumente, in: Oppenheim, R., Stolte, D., Zölch, F.A.: Das Publikum als Programm, Bern (Stämpfli) o.J. 47 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de ten zu Hause oder während der Freizeit zu Hause feststellen. In anderen Fällen wurde die im Interview genannte Nutzung des Radios im Auto nicht oder kürzer als angegeben gemessen. In der dritten Gruppe (Radiocontrol stellt mehr Radionutzung fest als im Interview angegeben wurde) wird die berichtete Radionutzung mit kürzeren, den Tagesablauf klar strukturierenden Tätigkeiten verbunden: mit dem Aufstehen, der Morgentoilette, den Mahlzeiten oder dem Autofahren. Häufig zeigt sich während solcher Sequenzen eine hohe Übereinstimmung zwischen Messung und Erinnerung. Dagegen wird in diesen Interviews Radiohören „vergessen“, wenn es innerhalb längerer Tätigkeiten ohne klare Zeitstruktur stattfindet. Radionutzung, deren Beginn oder Ende nicht mit einem Tätigkeitswechsel zusammenfällt, ist offenbar schwieriger zu erinnern: Die Uhr misst während der Freizeit oder während der Arbeit Radionutzung, die im Interview nicht erwähnt wird. Oder die Uhr registriert den berichteten Radiokonsum, aber zeitlich länger oder häufiger als angegeben. Zusammengefasst stellten wir fest: In den persönlichen Interviews wird die Mediennutzung häufig parallel zu bestimmten Tagestätigkeiten geschildert. Tätigkeitswechsel (z.B. von der Freizeit zum Autofahren) gehen häufig Hand in Hand mit Änderungen der Mediennutzung. Die Tagestätigkeiten dienen – und das ist bei Time-Budget-Studien ja explizit gewollt – als Gerüst, um die Mediennutzung im Tagesverlauf festzumachen. Die großen Unterschiede zwischen Messung und Erinnerung tauchten vorwiegend während der längeren Tätigkeiten auf: In den zwei- bis vierstündigen Phasen der Arbeit oder Freizeit wird Mediennutzung entweder für die ganze Dauer angegeben oder gar nicht; die Messung liegt dazwischen. Die Mediennutzung während kürzerer Tätigkeiten wie Morgentoilette, Mahlzeiten oder Autofahrten zeigen eine viel höhere Übereinstimmung zwischen den beiden Methoden, auch wenn sie teilweise leicht zeitversetzt auftauchen. Wie kann die Validität eines weltweit neuen Systems festgestellt werden? Ein Vergleich mit den persönlichen Interviews zeigt – wie eben beschrieben – vor allem große Unterschiede auf. Und sämtliche heute akzeptierten Instrumente für die Erhebung der Hörfunknutzung sind Befragungen, persönliche, telefonische oder schriftliche. Radiocontrol wurde entwickelt, weil eben gerade diese Befragungsinstrumente heute an ihre Messgrenzen gelangen; weil das Erinnern an das Radiohören der Vortages immer schwieriger und ungenauer wird (vgl. Ausgangslage). Wir haben darum Daten aus Radiocontrol mit einem anderen elektronischen Messsystem verglichen: mit Telecontrol, dem in der Schweiz eingesetzten TVMeter. Im Gegensatz zu Radiocontrol misst Telecontrol im 30-Sekunden-Takt die Nutzung eines ganzen Haushalts in einem fixen Panel direkt am Gerät und 48 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de damit nur das Fernsehen zu Hause, aber auch wenn der Ton ausgeschaltet ist. Auch hier sind also Differenzen zu erwarten. Die höhere Messfrequenz und die vom Ton unabhängige Messung lässt etwas höhere Werte bei Telecontrol erwarten, wobei die mit Radiocontrol erfassbare Fernsehnutzung außer Haus diese Differenz wiederum vermindern sollte. Gegen 60 TV-Sender werden im Radiocontrol-System testweise mit aufgezeichnet. Anhand dieser Programme lässt sich feststellen, ob das „TV hören“ (gemessen mit der Radiocontrol-Uhr) in etwa die gleichen Ergebnisse zeigt wie das „TV sehen“ (gemessen mit Telecontrol). Obschon zwei unterschiedliche Messsysteme eingesetzt werden, die auf unterschiedlichen, voneinander unabhängigen Panels basieren, ist die Übereinstimmung erstaunlich (Als Beispiel siehe Abb. 3) und zeigt, dass Radiocontrol valide misst. Abb. 3: Gegenüberstellung der Ratings für SF1+2 der beiden Messsysteme Telecontrol und Radiocontrol Methodenumstellung in der Schweiz Die Herausforderung bei der Einführung des Radiocontrol-Systems in der Schweiz bildete neben dem erstmaligen Einsatz eines Radiometers überhaupt der Aufbau einer adäquaten Stichprobe, die folgenden Kriterien genügen sollte 3: 3 Alle Angaben zur Stichprobe in der Schweiz gelten für den Zeitraum 2000 – 2003, auf das Jahr 2004 erfolgt eine disproportionale Aufstockung um 25 Prozent, vorwiegend in den bevölkerungsschwachen Verbreitungsgebieten. 49 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de • Bevölkerungsrepräsentativität: Wie schon die persönlichen Interviews (insgesamt 18 400 pro Jahr) sollte auch die Radiocontrol-Stichprobe die Bevölkerung ab 15 Jahren in allen Sprachregionen erfassen. Die Rekrutierung wurde in den Landessprachen durchgeführt, d.h. in der Deutschen Schweiz (4,3 Mio. Einwohner) wurden die Rekrutierungsinterviews in Deutsch durchgeführt, in der Suisse romande (1,4 Mio.) in Französisch, in der Svizzera italiana (0,3 Mio.) in Italienisch. Die Stichprobe ist damit sprachassimiliert: Wer der regional gesprochenen Sprache mächtig ist, kann teilnehmen, die Nationalität ist kein Rekrutierungskriterium. Für die rätoromanische Sprachgruppe wurden Personen rekrutiert, welche die vierte Landessprache zumindest verstehen (0,06 Mio.). • Repräsentativität in den Empfangsgebieten: Die schweizerische Radiolandschaft ist sehr differenziert durch die beachtliche Zahl von Privatradios in teilweise bevölkerungsschwachen Verbreitungsgebieten. Die geografische Verteilung geschah deshalb entsprechend den von der Zulassungsbehörde festgelegten Verbreitungsräumen der kommerziellen Privatstationen, die sich teilweise überschneiden, was letztendlich zu 50 geografisch unterschiedlichen Gebieten („Teilgebiete“, siehe Abbildung 4) führt, in denen je eine Stichprobe gezogen wird. Diese Teilgebiete lassen sich später auswertungstechnisch kombinieren und so auch die größeren Räume (Empfangsgebiete, Sprachregionen, Staat) repräsentativ abbilden. Abb. 4: Geografische Struktur der Radiocontrol-Stichprobe: Teilgebiete als kleinste Einheiten 50 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de • Repräsentativität über Einzeltage wie über längere Zeiträume: Die Messung muss über das ganze Jahr und über alle Wochentage durchgeführt werden, da die Radionutzung nach Jahreszeiten und Wochentagen zum Teil erheblich variiert. • Hörfunkgerecht: Wie schon zu Beginn des Artikels ausgeführt, erlaubt die Omnipräsenz des Radios und das breite Angebot an Programmen eine sehr individuelle Nutzung, was nach einem großen Sample verlangt. Die Stichprobengröße ist also mindestens auf dem Niveau der persönlichen Interviews weiterzuführen. • Radiometergerecht: Das Tragen der Radiocontrol-Uhr ist eine aktive Leistung, die durch die Testpersonen erbracht werden muss. Die zumutbare Tragezeit der Uhr dürfte 14 Tage kaum überschreiten4. Bei längeren Tragezeiten wäre wohl mit einer Abnahme der Tragedisziplin zu rechnen. Auf Grund dieser Prämissen wählten wir als Stichprobendesign ein „rollendes Panel“: Die rekrutierten Personen tragen die Radiocontrol-Uhr während einer Messwoche, dies zweimal jährlich. Jede Person besetzt in dieser Woche eine „Zelle“, die durch die drei Quotenvorgaben geografischer Raum (50 Räume), Alter (4 Klassen) und Geschlecht beschrieben ist. Ist die Messwoche zu Ende, beginnt eine andere Person mit den gleichen Kriterien ihre Messwoche. Damit entsteht in jeder „Zelle“ ein permanenter Datenstrom, der durch 26 sich ablösende Personen die 52 Wochen im Jahr abdeckt. Um die Schweiz und Liechtenstein abzubilden, wurden 812 Zellen benötigt. Mit anderen Worten tragen täglich in der Schweiz und Liechtenstein 812 Personen eine Radiocontrol-Uhr, (werk-) täglich wird ein Fünftel dieser Personen ausgetauscht. Theoretisch benötigen wir hierzu 21 112 Personen (812 Zellen à je 26 Personen), der Pool der Panelisten umfasst permanent ca. 22 000 Personen, jährlich werden 20 Prozent der Panelisten ausgetauscht. Um eine Stichprobe dieser Art und Größe ununterbrochen mit Messgeräten zu versorgen, benötigen wir 3200 Uhren: ¼ ist im Messeinsatz, ¼ ist auf dem postalischen Weg zum Panelisten oder auf dem Rückweg, ¼ bildet die Reserve zum Überbrücken von Fest- und Feiertagen, ¼ ist in Reserve, um Reparaturfälle und Schwund über die geplanten fünf Jahre abzudecken. Hardwaremäßig komplettiert wird das System durch den zentralen Vergleichsrechner und die 17 Stationen zum Aufzeichnen der Radio- und (zu Testzwecken) TV-Stationen. Dabei setzt sich der abgebildete Schweizer Radiomarkt zusammen aus 18 Programmen der SRG SSR idée suisse, 54 in der Regel kommerziellen Privatradios und 48 ausländischen Stationen, die aus den umliegenden Staaten 4 Médiametrie in Paris führte zahlreiche Tests mit 14-tägiger Tragedauer durch, ohne eine Abnahme der Tragedisziplin innerhalb dieser Zeitspanne festzustellen. 51 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de einstrahlen und immerhin ca. 11 Prozent des Marktes ausmachen. Zusätzlich werden zu Testzwecken 60 TV-Stationen aufgezeichnet, diese Daten werden aber nicht publiziert. Erfahrungen mit der neuen Methode Information oder Musik? Schon die Tagesverlaufskurven aus den Tests vor der Systemeinführung zeigten eine erstaunlich hohe Reichweite des Mediums am Vorabend. Neben den Hauptnutzungszeiten am frühen Morgen und am Mittag stellt sich neu eine starke dritte „Informations-Primetime“ zwischen 17:00 und 19:00 Uhr. Die minutengenauen Verlaufskurven zeigen weiter, wie stark Nachrichten und Informationssendungen den Radiotag gliedern. Die Reichweite von Programmen mit Stärken im Informationsbereich nimmt zu den Info-Zeiten regelmäßig zu. Musikorientierte Programme dagegen werden während des Tages viel gleichmäßiger genutzt, der Begleitcharakter dieser Programme zeigt sich in einem relativ gleichförmigen Nutzungsverlauf – unabhängig davon, ob es sich um kommerzielle oder öffentlich-rechtliche Programmanbieter handelt. Als Illustration werden in der Abbildung 5 die Informationsprogramme der SRG SSR idée suisse (DRS1, La Première und Rete uno) gruppiert und den musikorientierten dritten Programmen (DRS3, Couleur3 und Rete tre) gegenübergestellt. Abb. 5: Tagesverlaufskurven Programmen von informations- und musikorientierten 52 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Gewohnheiten sind gar nicht so mächtig „Radio ist ein Gewohnheitsmedium.“ Diese Aussage – so zeigen die Ergebnisse aus Radiocontrol – gründet mindestens teilweise auf den Daten der bisher eingesetzten Befragungsmethoden: Einerseits werden die Daten mit den heute eingesetzten Befragungsinstrumenten zwar täglich gesammelt, dann aber zumeist als Mittel über Monate, Quartale oder Semester ausgewiesen: Tagesspezifische Informationen gehen damit verloren. Andererseits neigen befragte Personen häufig dazu, ihre Gewohnheiten an Stelle des effektiven Verhaltens zu schildern, vor allem dann, wenn sie sich nicht erinnern können oder mögen. Tagesgenaue Daten aus dem Messsystem zeigen nun, dass das Radiopublikum bei bestimmten Ereignissen sehr wohl von der Alltagsroutine abweicht und das Radiogerät ausschaltet, weil es eine Sportübertragung live oder im Fernsehen verfolgt (beispielsweise liegt die Radionutzung an Abenden mit wichtigen Eishockey-Spielen deutlich tiefer als an den spielfreien Tagen). Oder die Hörerinnen und Hörer schalten gezielt ein, um Abstimmungsresultate zu erfahren (z.B. UnoBeitritt der Schweiz), ein Wahlprozedere zu verfolgen (z.B. Bundesratswahlen) oder Nachrichten über Großereignisse zu hören (z.B. 11. September 2001 oder Ausbruch des Irak-Krieges). Abb. 6: Ein außerordentlicher Tag: Tagesverlaufskurve des 20. März 2003 Kritikpunkte und Replik Mit Ausnahme der Schweiz und Großbritanniens sind noch nirgends Befragungsund Messsysteme zur Erhebung der Hörfunknutzung parallel betrieben worden. 53 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Trotzdem gibt es zahlreiche Argumente und Einwände gegen den Einsatz von Radiometern5. Diese Aussagen stützen sich in der Regel nicht auf direkte Vergleiche, sondern auf Annahmen und theoretische Überlegungen, denen wir hier gerne mit unseren mehrjährigen Erfahrungen entgegentreten: Wie wird „Hören“ definiert? „Die Definition von ‚Hören‘ ist bei Befragungsinstrumenten genial einfach: Sie ist das, was die Befragten als solches definieren, eben weil sie sich daran erinnern. Radiometersysteme dagegen zeichnen auch nicht bewusstes Hören auf.“ Diese Annahmen sind sowohl auf Grund unserer Single-Source-Studien als auch prinzipiell in Frage zu stellen. Die Definition „Nutzung ist, was erinnert werden kann“ muss schon aus lern- und gedächtnispsychologischer Sicht abgelehnt werden: Das „sich an Gehörtes erinnern können“ setzt beispielsweise eine gewisse Aufmerksamkeit im Moment des Hörens voraus, zumindest aber im Moment des Ein- und Ausschaltens des Gerätes, was gemeinhin als aktive, bewusst gesteuerte Handlung erwartet wird. Alltägliche Routinehandlungen aber definieren sich gerade über die Tatsache, dass sie nicht mehr bewusst gesteuert werden müssen. Damit sind sie aber auch schlechter erinnerbar, sie hinterlassen „weniger tiefe Spuren“ im Gedächtnis. An Stelle der erwünschten Rekonstruktion greifen Personen in der Befragung dann etwa auf ihr Wissen über ihre eigenen Gewohnheiten zurück. Damit tendieren Befragungsinstrumente zur Abbildung der Gewohnheiten und nicht des tatsächlichen, eventuell von der Gewohnheit abweichenden Verhaltens. Prinzipiell zu vermerken ist weiter, dass auch das „Nebenbeihören von Musik“ eine gesuchte Gratifikation beim Radio darstellt, als solche Wesensbestandteil dieses Mediums ist und es diese zu erfassen gilt. Ist das Radio einmal eingeschaltet, gilt es, die gehörte Station zu identifizieren. Auch dies geschieht häufig nicht als bewusster Akt, weiß doch der Befragte normalerweise, auf welche Sender seine Geräte abgestimmt sind. Bedient er das Gerät hingegen nicht selbst (oder hat jemand anderes das Gerät umgestellt), kann das schon eine gewisse Zeit dauern, bis ihm auffällt, dass die Moderatorin unbekannt ist, die erwartete Sendung nicht beginnt oder ein Jingle signalisiert, was gehört wird. Ein dem Befragten nicht bekannter Sender kann in der Befragung gar keine Nutzung verbuchen (selbst wenn er gehört wurde), ein Sender mit gutem Image dagegen hat gute Chancen, in Zweifelsfällen diese Lücke zu füllen. Dies sind nur einige der Einflussfaktoren, die sich zwischen das effektive Verhalten und das Berichten darüber schieben. 5 Sehr ausführlich z.B. „Nutzungsmessung des Radios: Uhr oder Ohr?“ von Dieter K. Müller in den Media Perspektiven 1/2002 54 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Wie konstant ist das Radionutzungsverhalten? „Wozu sollten tägliche Daten ausgewiesen werden? Das Radionutzungsverhalten zeigt sich doch relativ konstant.“ Diese „relative Konstanz“ des Radionutzungsverhaltens lässt sich aus den Zeitreihen der Hörfunkforschung ableiten. Allerdings entsteht diese Konstanz durch die eingesetzten Befragungsmethoden, die auf Erinnerung basieren und damit das Angeben von Alltagstätigkeiten und -gewohnheiten gegenüber der effektiven, detaillierten und teilweise mühsamen Rekonstruktion des Vortages favorisieren (siehe auch oben). Zusätzlich werden Interviews in der Regel über Monate oder Quartale kumuliert, damit werden saisonale, aber nicht tagesspezifische Unterschiede sichtbar. Vergleicht man dagegen Befragung und Messung von Radionutzungsverhalten, zeigt sich, dass Radio wesentlich flexibler und gezielter genutzt wird als bisher angenommen. Die in Abb. 6 dargestellte außerordentlich hohe Radionutzung am 20. März 2003, dem ersten Tag des Irak-Krieges, soll dies beispielhaft aufzeigen. Grenzen des Gedächtnisleistung „Die Gedächtnisleistung der Befragten muss nicht durch ein Messsystem abgelöst werden, sie reicht völlig aus: In Deutschland – das zeigt die Media-Analyse – nutzen zwei Drittel der täglichen Hörer nur einen einzigen Sender, ein weiteres Viertel pendelt an einem durchschnittlichen Tag zwischen zwei Sendern.“ Aus der Angabe, die Befragten würden nur wenige Sender täglich nutzen (pro Tag werden gemäß MA durchschnittlich 1,5 Sender gehört), kann nicht geschlossen werden, das Gedächtnis sei nicht überstrapaziert. Im Gegenteil könnten diese erinnerungsbasierten Angaben ja gerade Ausdruck einer Überlastung des Gedächtnisses sein: Die durchschnittlich gehörte Anzahl Sender pro Tag liegt bei gemessenen Daten in der Schweiz mit 2,4 Sendern erheblich höher (mit den persönlichen Interviews wurden 1,4 Sender täglich festgestellt). Die Messung erfasst gegenüber Befragungsinstrumenten sowohl kürzere Hörsequenzen als auch das Umschaltverhalten, das Hören von „unbekannten“ Sendern und korrigiert Falschidentifikationen. Stützfunktion der Tagestätigkeiten „Ein wichtiges Merkmal der erfragten Tagesablauferhebung ist das Erfassen der Tätigkeiten als Erinnerungshilfe bei der Rekonstruktion der Mediennutzung.“ 55 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Radiocontrol ist auf diese Unterstützung nicht angewiesen. Im Laufe unserer Tests sind uns sogar erhebliche Zweifel an der Nützlichkeit dieser „Stützfunktion“ der Begleittätigkeiten gekommen: In einem Koinzidenz-Test wurde bei 135 Personen während der Uhrentragewoche unangemeldet das herkömmliche persönliche Interview durchgeführt. Bei 82 Prozent der Personen ergaben sich größere Unterschiede zwischen der erfragten und der gemessenen Mediennutzung. Die Analyse zeigte, dass im Interview vor allem die langen Tagestätigkeitsstrecken wie Arbeit oder Freizeit sowohl zu Over- wie zu Underreporting führen können: In manchen Interviews wurde beispielsweise Radiohören während der Berufsarbeit angegeben, was mit sechs bis acht Stunden Radionutzung zu Buche schlug. Die Uhr zeichnete bei diesen Personen aber häufig deutlich kürzere Hörzeiten auf (bei 42 Prozent der Testpersonen insgesamt fand sich in den Befragungsdaten ein Overreporting). Andererseits erfassten die Uhren auch Radiohören innerhalb längerer Tätigkeiten, diese Nutzung wurde aber im Interview überhaupt nicht erwähnt – wohl, weil hier kein Tätigkeitswechsel erfolgte und damit die „Stützfunktion“ versagte (40 Prozent aller Testpersonen gaben in der Befragung weniger Nutzung an als gemessen wurde). Die Parallelerfragung der Tagestätigkeiten kann demnach eine verzerrende Wirkung haben. Die nahe Zukunft bringt Neuerungen Die heute eingesetzte Radiocontrol-Uhr wurde 1998 konzipiert und 1999 konstruiert. In der Zwischenzeit wurden weltweit zahlreiche Tests durchgeführt, über 1 000 000 Messtage analysiert und laufend neue Erkenntnisse gewonnen. Gleichzeitig hat sich die Elektronik rasant weiterentwickelt; was 1999 ein Abenteuer am Rande des technisch Machbaren war, ist heute mit Standard-Bauteilen zu übertreffen. Auf Grund der vielen Erfahrungen, Ansprüche und technischen Möglichkeiten wird im Jahre 2004 die nächste Generation des Messsystems einsatzbereit sein, wobei diese in neue Gebiete vorstoßen wird: Heutige Funktionen verbessert Die zweite Generation der Uhren ist mit einem wesentlich größeren Speicher ausgerüstet, was einerseits erlaubt, alle 20 Sekunden eine Aufzeichnung der Umgebungsgeräusche des Uhrenträgers vorzunehmen und gleichzeitig die Messdauer auf vier Wochen zu erhöhen. Weiter wird es möglich sein, die Daten während der Nacht aus der Uhr auszulesen und an die Auswertungszentrale zu senden. Wahlweise können so auch feste Panels eingerichtet werden, OnlineAuswertungen werden möglich. 56 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Die neue Uhr empfängt Funksignale Durch diese Zusatzfunktion eröffnet sich eine riesige Palette von neuen Möglichkeiten: Der Uhrenträger kann „geortet“ werden. Beispielsweise können Kinosäle mit kleinen Sendern ausgerüstet werden, die einen Code aussenden, der von der Uhr aufgefangen wird. So kann festgestellt werden, wie Kinos genutzt werden – die Radio- und TV-Nutzung wird single source mit der Kinoforschung verbunden. Bei längeren Tragezeiten der Uhr lohnt sich auch das Ausrüsten der Panelisten mit kleinen Sendern, um passiv die Nutzungsorte „zu Hause“, „im Auto“ oder „an der Arbeit“ zu erfassen. Die Technologie erlaubt gar, Plakatstellen mit Signalgebern auszustatten und so die Plakatforschung mit dem gleichen Instrument umzusetzen. Weiter wird es möglich sein, die Radionutzung mit Kopfhörer zu erfassen: Zwischen Walkman und Kopfhörer wird ein kleiner Sender gesteckt, der die Audiodaten abgreift und per Funk an die Uhr übermittelt. Natürlich eröffnen sich dadurch mannigfaltige Möglichkeiten, die hier nur mit einem einzigen Beispiel angedeutet werden: Teilnehmer in einem Konsumpanel werden mit der Uhr ausgerüstet, einige große Warenhausketten installieren RFSender über dem Eingang zu den Läden ... Leseverhalten kann erfasst werden Beim dritten Erweiterungsschritt geht es um die Nutzung der Printmedien, wobei wir hier auf die Kooperation des Uhrenträgers angewiesen sind. Durch einfachen Knopfdruck erscheint auf dem Display der Uhr eine Liste der Zeitungs- oder Zeitschriftentitel, geordnet nach Präferenzen des Trägers und Region. Natürlich werden die Titel am Kopf der Liste at random präsentiert. Durch die Liste kann mittels Touchscreen gescrollt werden, der aktuell gelesene Titel ausgewählt und bestätigt. Je nach Wunsch des Systemkäufers kann diese Erhebung einer einfachen Reichweite ergänzt werden durch Angaben zur Lesedauer oder weiteren Angaben wie z.B. die Identifikation des Bundes innerhalb der Zeitung. Damit steht mit der nächsten Generation der Radiocontrol-Uhr erstmals ein Messinstrument zur Verfügung, das gleichzeitig die Nutzung von Radio, TV, Kino, Plakat und Printmedien erfassen kann: Mediawatch – eine ganz einfache Armbanduhr. 57 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Professor Dr. Matthias Steinmann Matthias Steinmann ist eine der Leitfiguren der internationalen Mediaforschung. Ihm verdankt die Mediawelt das international anerkannte Modell der Fernsehforschung, das in Deutschland ebenso wie in der Schweiz und in Österreich eingesetzt wird, das Radiocontrol-System und seit neuestem die Mediawatch, die einen Quantensprung in der Mediaforschung verheißt. Geboren wurde Steinmann 1942 in Köniz im Kanton Bern. Studium der Wirtschafts- und Sozialwissenschaften an der Universität Bern, 1969 Dissertation „Radiowerbung in der Schweiz? – Eine empirische Analyse über das Radio in der Schweiz als Werbungsalternative“, 1970 Habilitation „Massenmedien und Werbung“, ab 1970 Privatdozent, ab 1974 Lehrbeauftragter für Kommunikationsforschung unter besonderer Berücksichtigung der elektronischen Medien an der Universität Bern. 1984 Ernennung zum Honorarprofessor, 1989 nebenamtlicher außerordentlicher Professor. Langjährige Praxis in der schweizerischen Journalistik und Werbewirtschaft. Von 1968 bis 1972 Vizedirektor bei der AG für das Werbefernsehen und Leiter der Abteilung „Zuschauerforschung“, seit 1973 Delegierter für Publikumsforschung bzw. seit 1986 für Medienforschung bei der Schweizerischen Radio- und Fernsehgesellschaft und damit für die Forschungsbelange der SRG SSR idée suisse verantwortlich. Von 1973 bis 1978 Medienberater beim Südwestfunk Baden-Baden, verschiedene Mandate als Kommunikations- und Marketingberater in der Schweiz, Europa und Übersee. Leiter der Beratungsfirma Berakom. Delegierter VR Publica Data AG. Zahlreiche Publikationen als Delegierter für Medienforschung beim SRG SSR Forschungsdienst. Unternehmer und Initiator von Telecontrol und Radiocontrol. Mit dem Radiocontrol-System Gewinner des Preises „Technologiestandort Schweiz“ und SRG SSR Prix Innovateur. Ende Mai 2004 trat Matthias Steinmann als Leiter des SRG SSR Forschungsdienstes in den Ruhestand. Sein Nachfolger ist Manuel Dähler. 58 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Manuel Dähler Seit Juni 2004 ist Manuel Dähler als Nachfolger von Matthias Steinmann Leiter Forschungsdienst der SRG SSR idée suisse. Bis dahin hatte er die Radioforschung der SRG geleitet. Dähler wurde am 27. Februar 1959 geboren. Er studierte Sozial-, Jugendpsychologie und Psychopathologie an der Universität Bern, Abschluss lic. phil. hist. 1991: Assistent am Lehrstuhl für Sozialpsychologie der Universität Bern, 1994: Dozent und Forscher am Schweizerischen Institut für Berufsbildung in Zollikofen, seit 1997 Studienleiter Radioforschung beim Forschungsdienst der SRG SSR idée suisse. Wichtigstes Projekt: Testen und Einführen von Radiocontrol (weitere: Ausbau Musikforschung, Interessentypologie der Radiohörer, Aufstockung Radiocontrol-Stichprobe). Dähler arbeitet an einer Doktorarbeit zur „Umstellung von der Interviewbefragung auf die Radiocontrolmessung in der Schweiz“ an der Uni Bern. 59 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Warum die Radioforschung in Österreich ihr Befragungsmodell präferiert Von Petra Golja, Doris Ragetté und Sigrid Svitek An einem durchschnittlichen Tag hört der Österreicher rund 3,5 Stunden Radio, sieht mehr als 2,5 Stunden fern, liest eine halbe Stunde Tageszeitung und verbringt etwa 25 Minuten im Internet. An diesen Daten, aber auch im Vergleich zu anderen westeuropäischen Ländern, wird die Wichtigkeit von Radio im Leben der Österreicher deutlich. Der share of market, also der Werbeausgabenanteil, von Radio beträgt in Österreich rund 8 Prozent1 und liegt somit deutlich über den Radioanteilen am Gesamtwerbemarkt anderer europäischer Länder. Dieser sowohl im Hörer- als auch im Werbemarkt hohe Stellenwert des Radios bedeutet auch, dass in Österreich auf die Qualität der Radio-Reichweitenforschung besonderer Wert gelegt wird. 1. Zur Geschichte der Radioforschung in Österreich Historisch interessant ist, dass die Radioforschung in Österreich auf eine sehr lange Tradition zurückblicken kann. Am 1. Oktober 1924 nahm die RAVAG (Radio-Verkehrs AG, der Vorläufer des heutigen öffentlich-rechtlichen Rundfunks ORF) ihren Sendebetrieb auf 2. Schon im selben Jahr gab es in der neu gegründeten Zeitschrift „Radiowelt“ einen Fragebogen zur Erhebung der Hörerwünsche („Was wünschen Sie zu hören? Programmgestaltung durch Volksentscheid!“)3. Bahnbrechend für die Markt- und somit Radioforschung in Österreich war die 1932 publizierte „Wiener RAVAG-Studie“ von Paul Lazarsfeld3. Erstmals wurde das Nutzungsverhalten des damals noch relativ jungen Mediums Radio im Rahmen einer schriftlichen Befragung erhoben. Lazarsfeld wertete die unglaubliche Zahl von 110 312 zurückgesandten Fragebögen hinsichtlich der Nutzungszeiten des damals noch auf wenige Stunden begrenzten Radioprogramms, der Programmpräferenzen sowie der bevorzugten Musikgattungen aus 1 Media Focus Research, „Buch der Werbung 2002“, Gesamtwerbeausgaben exkl. Kino, klassischer Prospekt und Online-Werbung 2 Geschichte des ORF: http://mediaresearch.orf.at/chronik.htm sowie Sonderausstellung auf der Schallaburg: „100 Jahre Radio“ in Niederösterreich vom 8. Juni bis 27. Oktober 2002 3 Desmond Mark (Hg.): Paul Lazarsfeld Wiener RAVAG-Studie 1932, Musik und Gesellschaft Bd. 24, 1996 61 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de und verknüpfte diese Informationen erstmals mit einer Reihe soziodemografischer Daten. Zum ersten Mal wusste man nicht nur, wie viele Personen insgesamt Radio hören und welches Musikgenre den mehrheitlichen Geschmack trifft, sondern es konnten auch soziodemografische Unterschiede – wie z. B. nach Geschlecht, Alter und Berufszugehörigkeit getrennt – im Hörverhalten festgestellt und in der Programmgestaltung darauf Rücksicht genommen werden. Diese für das gesamte Europa der 1930er-Jahre einzigartige Studie galt über viele Jahre als Grundlage für die Hörfunkforschung in Österreich. In den vom Wirtschaftsaufschwung gekennzeichneten 1950er- bis Mitte der 1960er-Jahre wurde keine konsequente, kontinuierliche Hörfunkforschung betrieben, es gab einige Ad-hoc-Untersuchungen im Auftrag des öffentlich-rechtlichen Rundfunks, die größtenteils auf schriftlichen Tagebuchstudien basierten. 1965 wurde erstmals die Allmedien-Untersuchung „Media-Analyse“ durchgeführt, die sich 1970 endgültig als allgemein anerkanntes Standardinstrument der Medienforschung etablierte. Die Media-Analyse deckte alle Mediengattungen (Print, Radio, Fernsehen) ab, und die Erhebung der Radionutzung war ein fixer Bestandteil des Fragebogens. Mittels Face-to-Face-Interviews wurde im Radioteil vor allem der gestrige Tagesablauf nach Viertelstunden in Bezug auf das Hörverhalten sowie die Regelmäßigkeit der Sendernutzung erhoben. Diese Daten konnten nicht nur nach soziodemografischen, sondern auch nach einer Fülle an zusätzlichen Zielgruppenkriterien – wie z. B. Informationsinteressen, Besitzdaten, Anschaffungspläne und Freizeitverhalten – analysiert werden. Dies ermöglichte nun, dass einerseits auf die Bedürfnisse der Agenturen und Werbung treibenden Wirtschaft insofern stärker Rücksicht genommen wurde, als Radio zielgruppengenau evaluierbar wurde und sich das Medium Radio neben dem aufstrebenden Werbekanal Fernsehen behaupten konnte. Andererseits konnten die für das Radioprogramm Verantwortlichen diese Daten zur optimalen Programmgestaltung nutzen. Die Radionutzungsdaten gaben Aufschluss über die Ein-, Ab- und Umschaltzeiten im Radio sowie die Struktur der Hörerschaft im Tagesverlauf. Die Daten waren somit eine wichtige Richtschnur für das Publikumsverhalten und ein wertvoller Input für die Verantwortlichen, um Programmentscheidungen auch anhand quantitativer Untersuchungsdaten evaluieren zu können. Lange Zeit erfüllte das Modell der Media-Analyse – sie wurde als Verein geführt, in dem alle wesentlichen Medienvertreter sowie eine Vielzahl an Agenturen als Mitglieder vertreten waren – alle Anforderungen. Mit den Jahren und dem steigenden Medienangebot konnte die Media-Analyse den spezifischeren Bedürfnissen der Medienanbieter – nicht zuletzt durch den nur zweijährigen Erhebungsrhythmus – nicht mehr voll Genüge tun. 62 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de 1982 wurde neben der Media-Analyse ein weiteres Allmedien-Instrument etabliert: die Optima. Die Optima, vom ORF und Printmedien finanziert, wurde – im Gegensatz zur Media-Analyse, die alle zwei Jahre erhoben und veröffentlicht wurde – jährlich durchgeführt und bot damit ein deutlich aktuelleres Abbild des Mediennutzungsverhaltens als die Media-Analyse. Die Interviews der Optima, die in der gesamten methodischen Anlage und im Fragebogenaufbau der MediaAnalyse sehr ähnlich war, wurden ebenfalls Face-to-Face durchgeführt. Anfangs umfasste die Optima pro Jahr 12 000 Interviews in der Grundgesamtheit 14+. Um der wachsenden Bedeutung regionaler Daten sowie dem Wunsch nach detaillierteren Analysen gerecht zu werden, aber auch wegen der bevorstehenden Einführung privaten Rundfunks in Österreich, der nicht national, sondern nur regional starten sollte, stockte man zuletzt auf insgesamt 18 000 Interviews auf. So konnte für jedes Bundesland eine genügend hohe Fallzahl – auch zur genaueren Hörerschaftsanalyse – generiert werden. Anfang der 1990er-Jahre zeichnete sich ab, dass „Allmedienstudien“ mit Faceto-Face-Befragungstechnik den zu erwartenden Veränderungen der Medienlandschaft (eine duale Rundfunkordnung sollte noch in diesem Jahrzehnt auch in Österreich gesetzlich etabliert werden), deren wesentlichstes Kennzeichen eine vergrößerte Angebotspalette war, nicht mehr genügen konnten. Die Optima wurde 1993 eingestellt, die Media-Analyse wurde ab diesem Jahr jährlich auf Basis einer größeren Stichprobe durchgeführt. Mit dem weiter steigenden Medienangebot zur selben Zeit war nicht nur der Fragebogenumfang der Media-Analyse beträchtlich, sondern auch die Methode der Face-to-Face-Befragung wurde nicht mehr allen Medienkategorien gerecht. 1991 wurde mit dem Teletest die elektronische Messung des Fernsehens eingeführt, 1993 wurde für das Radio ein eigenes Instrument – der Radiotest – etabliert, die Media-Analyse konzentrierte sich auf die Printmedien. So entwickelte sich für jede der drei Mediengattungen Fernsehen, Radio und Print eine Spezialstudie, die den Anforderungen des jeweiligen Medientypus besser gerecht wird. 2. Der Radiotest – die Leitwährung der Radioplanung in Österreich Der Radiotest bedeutete einen Umstieg von Face-to-Face- auf telefonische Interviews. Diese Änderung erfolgte erst nach umfassenden Pretests, in denen telefonische und Face-to-Face-Studien als Paralleluntersuchungen verglichen wurden. 1993 startete der Radiotest als Spezialstudie zur detaillierten Erhebung der Radionutzung. Damals war der ORF mit insgesamt zwölf Radiostationen (drei natio63 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de nale und neun regionale Sender) alleiniger Auftraggeber dieser Studie und stellte die Ergebnisse den Mediaagenturen und Programmplanern zur Verfügung. Insgesamt wurden im Jahr 24 000 telefonische Interviews durchgeführt, wobei die Telefoninterviews damals noch auf der klassischen Paper-and-Pencil-Methode beruhten. 1995 erfolgte der Umstieg auf CATI (Computer Assisted Telephone Interview), und Österreich war damit neben Belgien, Frankreich, Italien, Portugal und Schweden eines der ersten Länder in Europa, die die Vorteile von CATI nutzten4. Ein weiterer innovativer Schritt wurde 1995 durch die Fusion des Radiotests mit der Media-Analyse gesetzt. Die im Rahmen der 24 000 Telefoninterviews des Radiotests erhobenen Werbezeiten wurden in die damals rund 16 000 Interviews der Media-Analyse fusioniert. Dies ermöglichte den Mediaplanern, die Vielzahl der Zielgruppenkriterien aus der Media-Analyse auch für die Radioplanung zu nutzen sowie einen Intermediavergleich anzustellen. Der Radiotest mit seinen gesamten Informationen und mit seiner deutlich höheren Fallzahl als die MediaAnalyse stand für radiospezifische Auswertungen aber auch weiterhin als SingleSource-Studie zur Verfügung. 1995 war auch in anderer Hinsicht ein für die Radioforschung interessantes Jahr: Zwei Privatradios konnten in Österreich on air gehen. Am 22. September 1995 nahm die Antenne Steiermark ihren Sendebetrieb auf, nur einen Monat später sendete auch Radio Melody (heute: Antenne Salzburg). Der Radiotest erwies sich als flexibles Instrument und konnte vom Sendestart der beiden Privatsender an auf die neue Radiomarktsituation reagieren. Durch die hohe Fallzahl und den nach Bundesländern disproportionalen Stichprobenansatz war eine Erhebung dieser beiden Sender sofort möglich. Im April 1998 konnten weitere Privatradios flächendeckend in Österreich starten, heute sind neben den 12 ORF-Radios weitere rund 60 regionale bzw. lokale Privatradios auf Sendung, die im Radiotest erhoben werden. Die Auftragsvergabe erfolgt heute durch den ORF und den Großteil der Privatradios gemeinsam. 3. Radiotest – Die Methode Die Methode des Radiotests hat sich seit seiner Einführung bewährt und wurde in ihrer Grundkonzeption nicht verändert. Der zurzeit aktuelle Radiotest basiert auf folgenden methodischen Bedingungen, auf die weiter unten im Detail eingegangen wird. 4 ESOMAR: Report on Radio Audience Measurement in Europe 1997; Technique of Measurement and Task Length 64 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Methodenüberblick – Radiotest 2002 Grundgesamtheit: Sampling-Methode: Befragungsgebiet: Feldzeit: Art der Befragung: Adressenquelle: Gewichtung: Erreichte Interviews: Tabellenbasis: Interviewdauer: Ausschöpfung: Durchführendes Institut: Auftraggeber: Personen ab 10 Jahre Adressen-Zufallsauswahl Gesamt-Österreich, alle Bundesländer Januar – Dezember, tagesgleichverteilte Interviews telefonisch, CATI Herold Business Data + ergänzendes Booster-Sample Faktorengewichtung 24 000 Basis-Interviews 28 183 inkl. Aufstockungen für lokale Verbreitungsgebiete 24 000 Interviews ab 10 Jahre 20 Minuten 81% Fessel-GfK ORF und Privatradios 3.1. Grundgesamtheit Der Radiotest befragt Personen in privaten Haushalten ab zehn Jahre, nach oben gibt es keine Altersbegrenzung. Damit zählt Österreich zu den wenigen Ländern Europas, die das Hörverhalten auch von sehr jungen Zielgruppen abbilden können5. Die Basis für die Hochrechnung („Projektion in 1000“) liefert der jeweils aktuelle Mikrozensus der Statistik Austria. Für den Radiotest 2002 werden die Daten des Mikrozensus 2001 herangezogen. Die Grundgesamtheit der österreichischen Gesamtbevölkerung ab 10 Jahre umfasst aktuell 7 125 000 Personen. 3.2. Sampling und Stichprobenbildung 3.2.1. Das 461-Zellen-Modell Für die Stichprobe des Radiotests wird ein Multistage Stratified Simple Address Random System angewandt. Die Stichprobe ist als Jahressample konzipiert, welches dann auf die einzelnen Befragungseinheiten aufgeteilt wird, und erlaubt durch die große Zahl von 24 000 Interviews eine wesentlich weiter reichende Schichtung als bei geringeren Fallzahlen. 5 ESOMAR: Report on Radio Audience Measurement in Europe 1997; Age and Sociodemographic Requirements 65 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Im ersten Schichtungsschritt wird die Bevölkerung 10 Jahre und älter in die neun Bundesländer aufgeteilt. Auf Basis der Bundesländer wird die Disproportionalität festgelegt, um auch für regionale Analysen entsprechende Fallzahlen zur Verfügung zu haben. Im zweiten Schichtungsschritt wird nun jedes Bundesland proportional in die Politischen Bezirke zerteilt. Im dritten Schichtungsschritt wird jeder Politische Bezirk wiederum proportional zur Zahl der Einwohner in neun Ortsgrößenklassen zerlegt, wobei alle Gemeinden gleicher Ortsgröße des jeweiligen Politischen Bezirks in einer statistischen Zelle zusammengefasst werden. Dabei kommt folgendes Schema zur Anwendung: OG 1 OG 2 OG 3 OG 4 OG 5 OG 6 OG 7 OG 8 OG 9 bis 999 Einwohner 1000 1999 Einwohner 2000 2999 Einwohner 3000 4999 Einwohner 5000 9999 Einwohner 10 000 19 999 Einwohner 20 000 40 999 Einwohner 50 000 unter 1 Mio. Einwohner 1 Mio. Einwohner und mehr Bei dieser Bildung der Befragungseinheiten (primary sampling units) ergeben sich nun 461 statistische Zellen, da in keinem der Politischen Bezirke alle neun Ortsgrößenklassen vorhanden sind. Nachfolgende Tabelle zeigt im Cross-Count Bundesland x Ortsgröße, in wie vielen Politischen Bezirken Gemeinden dieser Ortsgrößen vorhanden sind. 66 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Am Beispiel Niederösterreich (NÖ) ist zu erkennen, dass es in den 25 Politischen Bezirken Niederösterreichs in 21 Bezirken Gemeinden der Ortsgrößenklasse 1 (bis 999 Einwohner), aber nur in 10 Bezirken Gemeinden der Ortsgrößenklasse 6 (10 000 – 19 999 Einwohner) gibt. NÖ wurde insgesamt in 116 statistische Zellen zerlegt. Im nächsten Schritt werden nun die Adressen der Herold Business Data und jene des Selected Sample Boost (siehe unten) den 461 Zellen zugeteilt. Innerhalb der einzelnen Zellen können nun die benötigten Adressen nach der Simple-Random-Methode gezogen werden. Durch diese Vorgangsweise haben alle Adressen einer Zelle die gleiche Chance, in die Stichprobe aufgenommen zu werden. Die breitestmögliche Abdeckung aller Gemeinden ist somit gewährleistet. Die Sollzahlen der Stichprobe werden nun unter Beachtung der Repräsentativität auf die vier Quartale aufgeteilt, die Ziehung der Adressen selbst erfolgt quartalsweise. Im nächsten Schritt werden die Quartalsadressen wieder unter Berücksichtigung der Repräsentativität auf die Monate, Wochen und zuletzt auf die Wochentage Montag bis Sonntag aufgeteilt. 3.2.2. Selected Sample Boost Aus unterschiedlichen repräsentativen Umfragen ist ersichtlich, dass der Anteil jener Personen, die ausschließlich über Handy telefonieren und nicht über einen Festnetz-Anschluss verfügen, deutlich wächst. Zumeist sind diese Handy-Nummern auch nicht im Amtlichen Telefonbuch eingetragen, sie wären somit für Telefonumfragen ausgeschlossen. Aktuell beträgt der Anteil der „Nur-HandyBesitzer“ rund 13 Prozent – es sind vor allem junge Personen im Alter zwischen 20 und 39 Jahren, großteils berufstätig und mobil. Zusätzlich zu den Handy-Besitzern, die nicht im Amtlichen Telefonbuch eingetragen sind, gibt es auch so genannte „Geheimnummern“, die ebenfalls in keinem Telefon-Sample berücksichtigt werden können. Insgesamt besitzen 99 Prozent ein Telefon, 18 Prozent der Bevölkerung sind nicht im Telefonbuch eingetragen. 67 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Um aber auch diese Gruppe der 18 Prozent im Sample berücksichtigen zu können, hat das durchführende Institut Fessel-GfK eine innovative Lösung gefunden: das Selected Sample Boost. Fessel-GfK führt pro Jahr 30 000 repräsentative Faceto-Face-Interviews sowie 20 000 repräsentative schriftliche Interviews durch. In allen diesen Untersuchungen wird festgestellt, ob die befragte Person über ein Telefon bzw. Handy verfügt sowie ob die entsprechende Nummer im Telefonbuch eingetragen ist. Jenen Telefonbesitzern, die nicht im Telefonbuch erfasst sind, wird die Frage nach der Bereitschaft, an Telefonumfragen teilzunehmen, gestellt. Dadurch wird die Adresse mit der genauen Zuordnung der Gemeinde und Ortsgrößenklassifizierung erfasst. Diese daraus generierten Adressen werden in die Sample-Basis integriert, wodurch eine repräsentative Random-Stichprobenziehung möglich gemacht wird. Das System des Selected Sample Boost vermeidet – im Gegensatz zum Random Digit Dialing, der randomisierten Erstellung von Telefonnummern – einerseits die hohe Verweigerungsrate bei den Geheimnummern-Besitzern und andererseits mögliche Konflikte mit dem Datenschutz. 3.2.3. Zielpersonenauswahl im Haushalt Um in einem angerufenen Haushalt die richtige Zielperson ab 10 Jahre auswählen zu können, wird die so genannte Geburtstagsmethode angewendet. Hierzu werden zunächst alle im Haushalt lebenden Personen nach Alterskategorien erfasst. Danach wird ermittelt, welche Person in diesem Haushalt, die zehn Jahre oder älter ist, zuletzt Geburtstag hatte – diese Person ist in weiterer Folge der Respondent für das gesamte Radiotest-Interview. Diese Geburtstagsmethode beruht auf einem Zufallsprinzip und gewährleistet damit zusätzlich die Repräsentativität der Stichprobe. 68 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Fragebogen-Ausschnitt zur Ermittlung der Zielperson ab zehn Jahre im per Zufall ausgewählten Haushalt6 FESSEL - GfK - INSTITUT Auftr. Nr.: Listen - Nr. Adr. Nr. Interviewer - Nr. 2003/130.461 Anmerkung zum Fragebogen: Der Radiotest wird mittels CATI (Computer Assisted Telefon Interviews) durchgeführt. Das heißt der Fragebogen wird für den PC programmiert. Der Papierausdruck dieses programmierten Fragebogens ist aufgrund von diversen Zeichen nicht "lesbar". Vorliegender Fragebogen ist eine "paper pencil" - Version, der zwar komplett dem CATI - Fragebogen folgt, aber bestimmte EDV - automatische Prozesse (wie z. B. Rotationen oder die Tatsache, dass bei CATI Datum oder Wochentag automatisch aufscheinen und nicht vom Interviewer eingetragen werden müssen) nicht aufzeigen kann. Nr. FRAGE GESTERN WAR: A. Guten Tag, hier spricht Institut. .......... ................................ B. Wochentag . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datum vom FESSEL-GfK- Wir machen eine Umfrage über das Radiohören. Damit ich feststellen kann, mit wem ich sprechen muss, bitte ich Sie, mir aufzuzählen, aus wie vielen Personen Ihr Haushalt besteht. Wie viele Haushaltsmitglieder sind ..........? ** INT.: weiter mit Frage ANTWORT VORLESEN! ** Sagen Sie mir bitte, welche Person in Ihrem Haushalt, die 10 Jahre und älter ist, hat als letzte Geburtstag gehabt! Anzahl a - 14 Jahre und älter ......................... b - 10 bis unter 14 Jahre ......................... c - 6 bis unter 10 Jahre ......................... d - 2 bis unter 6 Jahre ......................... e - unter 2 Jahre ......................... insgesamt ......................... B MIT PERSON, DIE ZULETZT GEBURTSTAG GEHABT HAT, IST DAS INTERVIEW DURCHZUFÜHREN! Alter: ............ Geschlecht: männlich weiblich 1 2 1 3.3. Befragungsgebiet Die Interviews für den Radiotest werden im gesamten österreichischen Bundesgebiet durchgeführt. Um aber auch für jene Radiosender, die nur ein Bundesland abdecken, valide Daten mit einer möglichst geringen Schwankungsbreite zu generieren, ist es notwendig, die Basisstichprobe von 24 000 Interviews nach den Bundesländern disproportional anzulegen. Innerhalb der Bundesländer werden die Interviews proportional nach den politischen Bezirken sowie Ortsgrößen aufgeteilt. 6 Dieser Fragebogen-Ausschnitt ist ausschließlich für die gedruckten Berichte erstellt worden, der Original-Fragebogen ist für das CATI-System programmiert. 69 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Neben den nationalen und regionalen Sendern gibt es eine Reihe lokaler Privatradios, die auf Grund ihrer Sendefrequenz kein gesamtes Bundesland abdekken, sondern nur einige Politische Bezirke eines Bundeslandes. Um auch diese lokalen Radiostationen im Radiotest abzubilden, müssen diese Lokalsender in ihrem definierten Sendegebiet im Jahr zumindest 600 Interviews generieren. Die Schwankungsbreite bei 600 Interviews liegt zwischen ± 1,1 und 4,0 Prozentpunkten. Eine detaillierte Hörerschaftsanalyse dieser Sender ist daher schwer möglich, dennoch erlaubt die Fallzahl von zumindest 600 Interviews im Jahr eine Reichweitenanalyse nach relevanten soziodemografischen Merkmalen. Auf Grund der notwendigen Aufstockungen der Interviews in den verschiedenen lokalen Verbreitungsgebieten einiger privater Radiosender basiert der Radiotest 2002 auf insgesamt 28 183 Fällen. Die Basisstichprobe jedoch umfasst ohne lokale Aufstockungen 24 000 Interviews. 3.4. Feldzeit Im Gegensatz zu anderen europäischen Ländern, unter anderem auch Deutschland, die pro Jahr nur einige Erhebungswellen durchführen, werden die Interviews des Radiotests auf alle Monate des Jahres gleichmäßig aufgeteilt. So können saisonal bedingte Unterschiede des Hörverhaltens sowie aktuelle Tagesgeschehnisse die Ergebnisse nicht atypisch beeinflussen. Ein Beispiel: Wer hat nicht alle Medienkanäle am 11. September 2001 und danach intensiver als sonst genutzt? Aber nicht nur solche dramatischen Weltereignisse können zu einem außergewöhnlichen Mediennutzungsverhalten führen, sondern ebenso auch positive Ereignisse: Nahezu die gesamte österreichische Nation hat die sensationellen Comeback-Skirennen unseres Super-Skistars Hermann Maier nach seinem Unfall mitverfolgt! Wenn eine Befragung nicht gerade zu solchen Ereignissen stattfindet, ergäbe dies ein zu niedrig gemessenes Hörverhalten. Und umgekehrt: Würde die 70 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Befragung zu Zeiten solch besonderer Ereignisse stattfinden, ergäbe dies ein überproportional intensives Hörverhalten im Jahresdurchschnitt. Ebenso wichtig – neben der Monatsaufteilung der Interviews – ist auch die gleichmäßige Aufteilung der Interviews auf die einzelnen Tage einer Woche (siehe unten stehende Tabelle), um ein möglichst reales Abbild der Hörgewohnheiten zu erhalten. Radiosender senden 24 Stunden an sieben Tagen die Woche ihr Programm. Es ist also notwendig, eventuelle Unterschiede der Programmnutzung eines Senders im Wochentagsverlauf darstellen zu können. Tagesreichweiten „Radio gesamt“ nach Wochentagen in Prozent – Personen ab zehn Jahre im Radiotest 20027 7 Radiotest 2002, Januar–Dezember 2002, Tagesreichweiten in Prozent, Radio gesamt, Bevölkerung 10+ 71 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de 3.5. Art der Befragung Der Radiotest wird mittels telefonischer CATI-Interviews durchgeführt. Die Vorteile einer computerunterstützten Erhebung sind hinlänglich bekannt. Die entscheidenden Vorteile sind einerseits beim Fragebogen die Möglichkeit der automatischen Filterführung im Fragebogen, die Rotationsmöglichkeiten von Items, das Vermeiden von Codierungsfehlern sowie die Schnelligkeit der Datenverfügbarkeit und andererseits die computergesteuerte Organisation der Feldarbeit, wie automatisches Anwählen der at random gezogenen Telefonnummern, Adress- und Terminverwaltung. Mögliche Interviewerbeeinflussungen werden auf diese Weise nahezu ausgeschlossen. 3.6. Gewichtung Die Gewichtung der Stichprobe erfolgt nach dem jeweils aktuellen Mikrozensus der Statistik Austria. Für den Radiotest 2002 wurde der Mikrozensus 2001 als Gewichtungsunterlage herangezogen. Die Zielsetzung der Gewichtung ist es, einerseits die Disproportionalität nach Bundesländern und lokalen Verbreitungsgebieten aufzulösen sowie andererseits die repräsentativ gezogene Stichprobe an die realen soziodemografischen Strukturen optimal anzugleichen. Die Gewichtungsvorgaben sind: Die ungewichtete Struktur der Stichprobe ist der nach dem Mikrozensus gewichteten Stichprobe in den relevanten Soziodemografie-Merkmalen fast deckungsgleich. 72 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Struktur der Stichprobe in Prozent – Personen ab zehn Jahre im Radiotest 20028 3.7. Ausschöpfung Wie in allen quantitativen Großstudien der Medienforschung ist eine hohe Ausschöpfung notwendige Voraussetzung, um valide Ergebnisse zu erzielen. Die Mindest-Ausschöpfungsquote im Radiotest liegt daher bei 80 Prozent. Im Durchschnitt wird eine Adresse acht Mal kontaktiert, die maximale Kontaktanzahl liegt bei rund 25 Versuchen. Diese hohe Kontaktzahl kann bei Telefoninterviews, speziell beim Radiotest, der eine längere Feldzeit aufweist als „Blitzumfragen“, im Vergleich zu Face-to-Face-Interviews kostengünstig erreicht werden. 8 Radiotest 2002, Januar–Dezember 2002, ungewichtete versus gewichtete Stichproben-Struktur, Angaben in Prozent 73 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de 4. Radiotest – Das Interview Der Fragebogen des Radiotests ist nach folgendem Ablaufschema aufgebaut: Der Fragebogen – Radiotest 2002 • Zielpersonen-Auswahl • Erhebung der Namensbekanntheit der Radiosender • Gestützte Frage, die Namen der Radiosender werden vorgelesen. • Die Reihenfolge der Sendernamen ist randomisiert. • Pro Bundesland werden nur die im Bundesland relevanten Sender erhoben. • Tagesablauf „gestern“ • Ungestützte Frage, die Namen der Radiosender werden nicht vorgegeben. • Der gestrige Tag ist in Viertelstunden eingeteilt. • Das Hörverhalten wird mit den Tätigkeiten des gestrigen Tages verbunden, um die Erinnerungsleistung an das Radiohören zu erleichtern. • Bei der Angabe „Radio gehört“ wird sofort nach dem Sender gefragt. • Hörfrequenzen nach Zeitzonen • Filterfrage = WHK = Weitester Hörerkreis = In den letzten sieben Tagen den Sender gehört • Feststellung der Regelmäßigkeit des Hörens • Basis zur Berechnung der Kontaktwahrscheinlichkeiten (Segmentation) • Spezielle Selektionskriterien • Besitzdaten, Anschaffungspläne, Interessen, Aktivitäten • Statistik / Soziodemografische Variable 4.1. Tagesablauf „gestern“ Die Reichweitenermittlung im Radiotest basiert auf der so genannten „RecallMethode“ – aus der ungestützten Erinnerung wird das Hörverhalten des gestrigen Tages abgerufen. Um die Erinnerungsleistung zu unterstützen, wird nach den Tätigkeiten des gestrigen Tages gefragt. Aus Studien ist bekannt, dass man sich an das Radiohören besser erinnern kann, wenn es mit den Tätigkeiten verknüpft 74 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de wird. Die Frage nach dem Tagesablauf beginnt mit der Frage: „Wann sind Sie gestern aufgewacht?“. Anschließend wird der gesamte Tagesablauf durchgegangen, indem nach den Tätigkeiten gefragt und jeweils die Frage gestellt wird, ob man dabei auch Radio gehört hat. Bejaht der Respondent, wird sofort nach dem gehörten Sender gefragt, den er ungestützt nennen muss. Weiterhin wird der Aufenthaltsort im Fragebogen vermerkt, um Unterschiede der Radionutzung nach „zu Hause“, „im Auto“, „in der Arbeit/Schule/Uni“ und „unterwegs“ feststellen zu können. Insgesamt mag diese Tagesablauf-Frage auf den ersten Blick sehr umfangreich und kompliziert erscheinen, die Interviewer jedoch sind bestens eingeschult, sodass diese Frage im „lockeren“ Gespräch durchgenommen wird. Es ist auch anzumerken, dass die Abbruchrate bei dieser Frage fast bei null liegt, der Befragte fühlt sich also von dieser Frage in keiner Weise gestört oder überfordert. Die kleinste noch erfragbare Zeiteinheit ist die Viertelstunde. Es ist im Radiotest nicht möglich, eventuell nur fünf gehörte Minuten innerhalb einer Viertelstunde auch als solche einzutragen. Selbstverständlich sind aber Mehrfachnennungen pro Viertelstunde möglich und zulässig. Jede genannte Viertelstunde wird zu 15 Minuten verrechnet, bei einer Mehrfachnennung innerhalb einer Viertelstunde werden die 15 Minuten auf die entsprechend genannten Sender aufgeteilt. 75 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Fragebogen-Ausschnitt - Tagesablauf „gestern“6 Frage 2: Ich möchte jetzt von Ihnen wissen, wann Sie gestern Radio gehört haben und welche Sender das waren? Damit wir nichts vergessen, gehen wir am besten den ganzen gestrigen Tag durch. Gestern war ... (Wochentag nennen!) Wann sind Sie gestern aufgewacht? Haben Sie da Radio gehört? Was haben Sie dann gemacht? Wie lange hat das gedauert? Haben Sie während dieser Zeit Radio gehört? Welcher Sender war das? Welche Sender waren das? ZEIT 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 15.00 15.15 15.30 15.45 16.00 16.15 16.30 16.45 17.00 17.15 17.30 17.45 18.00 18.15 18.30 18.45 19.00 19.15 19.30 19.45 20.00 20.15 20.30 20.45 21.00 21.15 21.30 21.45 22.00 22.15 22.30 22.45 23.00 23.15 23.30 23.45 0.00 0.15 0.30 0.45 1.00 1.15 1.30 1.45 2.00 2.15 2.30 2.45 - 15.15 15.30 15.45 16.00 16.15 16.30 16.45 17.00 17.15 17.30 17.45 18.00 18.15 18.30 18.45 19.00 19.15 19.30 19.45 20.00 20.15 20.30 20.45 21.00 21.15 21.30 21.45 22.00 22.15 22.30 22.45 23.00 23.15 23.30 23.45 24.00 0.15 0.30 0.45 1.00 1.15 1.30 1.45 2.00 2.15 2.30 2.45 3.00 H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Sender 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Radio gehört A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A Arbeit Radio gehört P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P P PKW Arbeit N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N nicht zu Hause PKW O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O RADIO außer Haus Fernsehen nicht zu Hause H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H H Sender Fernsehen 3.00 - 3.15 3.15 - 3.30 3.30 - 3.45 3.45 - 4.00 4.00 - 4.15 4.15 - 4.30 4.30 - 4.45 4.45 - 5.00 5.00 - 5.15 5.15 - 5.30 5.30 - 5.45 5.45 - 6.00 6.00 - 6.15 6.15 - 6.30 6.30 - 6.45 6.45 - 7.00 7.00 - 7.15 7.15 - 7.30 7.30 - 7.45 7.45 - 8.00 8.00 - 8.15 8.15 - 8.30 8.30 - 8.45 8.45 - 9.00 9.00 - 9.15 9.15 - 9.30 9.30 - 9.45 9.45 - 10.00 10.00 - 10.15 10.15 - 10.30 10.30 - 10.45 10.45 - 11.00 11.00 - 11.15 11.15 - 11.30 11.30 - 11.45 11.45 - 12.00 12.00 - 12.15 12.15 - 12.30 12.30 - 12.45 12.45 - 13.00 13.00 - 13.15 13.15 - 13.30 13.30 - 13.45 13.45 - 14.00 14.00 - 14.15 14.15 - 14.30 14.30 - 14.45 14.45 - 15.00 TÄTIGKEIT zu Hause zu Hause ZEIT 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 RADIO außer Haus zu Hause TÄTIGKEIT zu Hause gestern nicht Radio gehört 6 Dieser Fragebogen-Ausschnitt ist ausschließlich für die gedruckten Berichte erstellt worden, der Original-Fragebogen ist für das CATI-System programmiert. 76 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Aus der Tagesablauf-Frage lassen sich insgesamt vier Definitionen ableiten: 4.1.1. Tagesablauf „gestern“ – Tagesreichweite Die Tagesreichweite umfasst Personen, die gestern zumindest eine Viertelstunde lang Radio (bzw. einen bestimmten Sender) gehört haben. Dabei ist es unerheblich, wann und wie lange insgesamt Radio (bzw. ein bestimmter Sender) gehört wurde. Tagesreichweiten „Radio gesamt“ in Prozent – Personen ab zehn Jahre9 84,7 84,3 84,3 2000 2001 2002 82,2 79,4 78,8 1996 1997 78,0 78,5 75,9 Flächendeckender Start der Privatradios in Ö 77,2 1993 1994 1995 1998 1999 Der hohe Stellenwert des Mediums Radio konnte trotz der Vielzahl neuer Medien sogar noch ausgeweitet werden. So stieg die Tagesreichweite seit 1998, dem flächendeckenden Start der Privatradios, noch weiter an und liegt seit 2001 auf konstant hohem Niveau. 4.1.2. Tagesablauf „gestern“ – Hördauer Die Hördauer gibt an, wie lange insgesamt Radio (bzw. ein bestimmter Sender) an einem durchschnittlichen Tag gehört wird. Eine genannte Viertelstunde im Tagesablauf wird als 15 Minuten verrechnet. 9 Radiotest, jeweils Januar–Dezember, Reichweiten in Prozent, Gesamt-Österreich, Bevölkerung 10+, Montag–Sonntag 77 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Hördauer „Radio gesamt“ in Minuten pro Tag – Personen ab zehn Jahre9 208 212 206 209 2001 2002 193 184 186 1996 1997 Flächendeckender Start der Privatradios in Ö 173 169 160 1993 1994 1995 1998 1999 2000 Auch die steigende Hördauer spiegelt die kontinuierliche Bedeutung von Radio im Leben der Österreicher wider. Interessante Unterschiede in der Hörmenge zeigen sich in den einzelnen Alterskategorien. Hördauer „Radio gesamt“ in Minuten pro Tag nach Alter im Radiotest 200210 249 240 227 239 209 179 119 Gesamt 10-19 Jahre 20-29 Jahre 30-39 Jahre 40-49 Jahre 50-59 Jahre ab 60 Jahre 9 Radiotest, jeweils Januar–Dezember, Reichweiten in Prozent, Gesamt-Österrecih, Bevölkerung 10+, Montag–Sonntag 10 Radiotest 2002, Hördauer in Minuten, Gesamt-Österreich, Bevölkerung 10+, Montag–Sonntag 78 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de 4.1.3. Tagesablauf „gestern“ – Marktanteil Der Marktanteil eines Senders gibt an, wie groß der prozentuelle Anteil der Hördauer eines bestimmten Senders an der gesamten Hördauer ist. Da im Radiotest eine genannte Viertelstunde immer zu 15 Minuten verrechnet wird und nicht nach der tatsächlich genannten Hördauer innerhalb einer Viertelstunde, werden die Marktanteile im Radiotest immer in gerundeten, ganzen Prozentzahlen ausgewiesen, um nicht eine Genauigkeit vorzutäuschen, die das Befragungsschema des Tageablaufs nicht liefern kann. Marktanteile in Prozent – Basis: Gesamt-Österreich im Radiotest 200211 Personen ab 10 Jahre Personen, 14-49 Jahre 2% 2% 17% 21% 77% 81% ORF Privatradio gesamt Ausländ. Sender ORF Privatradio gesamt Ausländ. Sender Die Marktanteile des ORF setzen sich aus den nationalen, in ganz Österreich ausstrahlenden Sendern Ö3, FM4 und dem werbefreien Kultursender Österreich 1 sowie den regionalen Sendern in den Bundesländern (z. B. Radio Wien, Radio Niederösterreich etc.) zusammen. Die Marktanteile von Privatradio gesamt beziehen sich auf die Summe aller regionalen und lokalen Privatradios – es gibt keinen national ausstrahlenden Privatsender. Im Bundesland Wien sind neben den nationalen Sendern des ORF auch die regionalen Sender Radio Wien, Radio Niederösterreich und Radio Burgenland sowie die Privatradios Kronehit, 88.6 Supermix, Antenne Wien, Radio Arabella, Radio Energy und Radio Stephansdom empfangbar. Die Marktanteile in der Bundeshauptstadt Wien unterscheiden sich deutlich von Gesamt-Österreich: 11 Radiotest 2002, Marktanteile in Prozent, Montag–Sonntag 79 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Marktanteile in Prozent – Basis: Bundesland Wien im Radiotest 200211 Personen ab 10 Jahre Personen, 14-49 Jahre 2% 2% 25% 30% 68% 73% ORF Privatradio gesamt Ausländ. Sender ORF Privatradio gesamt Ausländ. Sender 4.1.4. Tagesablauf „gestern“ – Viertelstunden Die Viertelstunden können sowohl einzeln als auch als Durchschnitt über bestimmte Zeitzonen ausgewiesen werden. Zur Berechnung der Durchschnitte über bestimmte Zeitzonen wird in Österreich die jeweilige Durchschnitts-Viertelstunde als arithmetisches Mittel gebildet. Diese Durchschnitts-Viertelstunden dienen in weiterer Folge den Sendern zur Tarifkalkulation. Um einen schnellen Überblick über das Preis-Leistungs-Verhältnis eines Senders zu haben, wird die Durchschnitts-Viertelstunde über die Zeitzone von 6.00 bis 18.00 Uhr auf Basis „Projektion in 1000“ gebildet. Dieser Reichweitenwert wird mit dem Durchschnitttarif dieser Zeitzone eines Senders in Relation gesetzt (Formel = Ø-Tarif in € : Ø-Viertelstunde in 1000). Viertelstundenverläufe und Zeitzonen-Betrachtungen sind ebenso wesentliche Informationen für die Programmgestaltung. So kann für jede Zeitzone, aber auch Sendungen die Nettoreichweite ermittelt werden. Das heißt, es kann nicht nur Auskunft über die pro Viertelstunde erreichte Hörerzahl gegeben werden, sondern auch die Gesamthörerschaft über eine definierte Zeitzone (z. B. die Morgenzone von 6.00 bis 9.00 Uhr) ermittelt werden. Das heißt, jede Person – unabhängig davon, ob sie innerhalb der Zeitzone nur eine Viertelstunde (also zwischen 7.00 und 7.15 Uhr) oder die gesamte Dauer (also zwischen 6.00 und 9.00 Uhr) durchgehört hat – wird nur einmal in die Gesamthörerschaft miteingerechnet. Anmerkung: Die Tagesreichweite ist übrigens die Nettoreichweite über alle Viertelstunden des Tages. Viertelstundengenaue Hörerwanderungsströme (Zu-, 11 Radiotest 2002, Marktanteile in Prozent, Montag–Sonntag 80 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Ab- und Umschalter) liefern für die Programmplanung ebenfalls wertvolle Hinweise über Publikumsgewohnheiten und im weiteren Sinn Publikumspräferenzen, denen in der Folge Rechnung getragen werden kann. Viertelstunden „Radio gesamt“ im Tagesverlauf nach Wochentagen in Prozent im Radiotest 200212 Der Tagesverlauf zeigt zwei Besonderheiten im Hörverhalten: Es gibt – vor allem an Werktagen – eine besonders hohe Radionutzung in der Früh (7.00 bis 9.00 Uhr) sowie eine außergewöhnlich hohe Nutzung zur Mittagszeit (12.00 Uhr). Ab ca. 19.00 Uhr verflacht die Nutzungskurve. Eine so genannte „Drive Time“ ist in Österreich nicht so stark ausgeprägt wie in anderen europäischen Ländern. Deutliche Unterschiede im Nutzungsverhalten ergeben sich auch nach den verschiedenen Aufenthaltsorten, an denen man Radio nutzt. Man lässt sich vom Radio zu Hause wecken, schaltet das Radio vor allem am Vormittag bis in die frühen Nachmittagsstunden am Arbeitsplatz ein und lässt sich im Auto von diesem aktuellen Medium begleiten. 12 Radiotest 2002, Viertelstunden-Reichweiten in Prozent, Gesamt-Österreich, Bevölkerung 10+, Montag–Sonntag 81 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Viertelstunden „Radio gesamt“ im Tagesverlauf nach Aufenthaltsort in Prozent im Radiotest 200212 25,0 20,0 15,0 10,0 5,0 Zu Hause im Auto 2.30 - 2.45 2.00 - 2.15 1.30 - 1.45 1.00 - 1.15 0.30 - 0.45 0.00 - 0.15 23.30 - 23.45 23.00 - 23.15 22.30 - 22.45 22.00 - 22.15 21.30 - 21.45 21.00 - 21.15 20.30 - 20.45 20.00 - 20.15 19.30 - 19.45 19.00 - 19.15 18.30 - 18.45 18.00 - 18.15 17.30 - 17.45 17.00 - 17.15 16.30 - 16.45 16.00 - 16.15 15.30 - 15.45 15.00 - 15.15 14.30 - 14.45 14.00 - 14.15 13.30 - 13.45 13.00 - 13.15 12.30 - 12.45 12.00 - 12.15 11.30 - 11.45 11.00 - 11.15 9.30 - 9.45 10.30 - 10.45 10.00 - 10.15 9.00 - 9.15 8.30 - 8.45 8.00 - 8.15 7.30 - 7.45 7.00 - 7.15 6.30 - 6.45 6.00 - 6.15 5.30 - 5.45 5.00 - 5.15 4.30 - 4.45 4.00 - 4.15 3.30 - 3.45 3.00 - 3.15 0,0 in der Arbeit 5. Zukunft der Radioforschung Die lange, erfolgreiche Tradition der Radioforschung in Österreich basiert nicht zuletzt darauf, dass die Veränderungen in der Medienlandschaft und die damit einhergehende Forderung nach einer validen und reliablen Abbildung der Radionutzung kontinuierlich evaluiert werden. Der Radiotest ist das Ergebnis dieses laufenden Reflexionsprozesses. Aber selbstverständlich wird auch die Methodenentwicklung im Ausland mit großer Aufmerksamkeit mitverfolgt, und diesbezügliche Innovationen werden für den österreichischen Markt geprüft. Eine solche Methoden-Innovation, die bereits seit einigen Jahren von internationalen Radioforschungsexperten diskutiert wird, ist das so genannte „Radiometer“. Das Prinzip dieser passiven, elektronischen Messung für Radio klingt für Programmmacher und Mediaplaner bestechend: tägliche (minutengenaue) Daten (ähnlich den Telemetrieverfahren beim Fernsehen) auch für das Radio. Nach jahrelanger Diskussion ist in der Schweiz, als einzigem europäischen Land, dieses System nun für die Radioreichweitenmessung im Einsatz. Die Messung erfolgt über die Aufnahme der empfangenen Töne mittels eines Mikrofons, das in einer Armbanduhr eingebaut ist, die vom Probanden getragen wird. Die Töne werden im Gerät digitalisiert und auf 12 Radiotest 2002, Viertelstunden-Reichweiten in Prozent, Gesamt-Österreich, Bevölkerung 10+, Montag–Sonntag 82 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de einem Chip gespeichert. Die im Chip gespeicherten Daten werden anschließend mit den in einer externen Datenzentrale erfassten Datenmuster der empfangbaren Radiostationen verglichen und ausgewertet. Der wesentliche Vorteil des Systems liegt in der minutengenauen elektronischen Erhebung zur Abbildung der Radionutzung. Bei der methodischen Evaluierung dieses Systems gibt es allerdings viele offene Fragen, die nicht nur technischer Natur sind. So kann z. B. Radiohören mittels Kopfhörer nicht erfasst werden, und so genannte Mantelprogramme, also Programmelemente, die über mehrere Frequenzen ausgestrahlt werden, können derzeit nicht eindeutig einem Sender zugeschrieben werden. Auch Untersuchungsbedingungen, wie die Repräsentativität der Stichprobe, die Panelgröße, die Abdeckung regionaler und lokaler Verbreitungsgebiete, die Tragebereitschaft der „Uhr“ zu jeder Zeit sowie die Zuordnung des Orts des Hörens, sind von Experten noch ausführlich zu diskutieren. Neben solchen offenen Punkten spielen auch die erheblichen Mehrkosten gegenüber der jetzigen Methode eine nicht unwesentliche Rolle. Die Klärung all dieser Fragen wird noch einige Zeit (wenn nicht sogar Jahre) in Anspruch nehmen und ist eine interessante und verantwortungsvolle Herausforderung, um die optimale Methode für die österreichische Radioforschung auch in Zukunft gewährleisten zu können. 83 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Dr. Petra Golja, Mag. Sigrid Svitek, Doris Ragetté (von links nach rechts) Doris Ragetté 1987 –1988 Kronen Zeitung, Assistenz der Marketingabteilung 1988 –1995 Fessel-GfK, Studienleiter in der Medienforschung 1995 – 1998 Trend-Profil-ORAC-Verlag, Leitung der Verlags-Marktforschung und des Media-Service seit Juli 1998 RMS – Radio Marketing Service, Leitung von Marktforschung und Media-Service Weitere Tätigkeiten Lehrauftrag an der WerbeAkademie für Markt- und Mediaforschung am Wifi Wien (seit 1997), Lehrauftrag für den Universitäts-Lehrgang „Markt- und Meinungsforschung“ (1998–2000), Lehrauftrag am Wifi Wien im Rahmen des MediaberaterLehrgangs (seit 2001), Vorstandsmitglied im Verein FMP / Forum Media-Planung (seit 1996), Vorstandsmitglied im VMÖ / Verband der Marktforscher Österreichs (2000–2002), Mitglied im Programmausschuss, dem Methodengremium des Vereins, Arbeitsgemeinschaft Media-Analysen, Mitglied im Arbeitsgremium, dem Methodengremium des Radiotests, Forschungsbezogene Publikationen in Fachmedien. Dr. Petra Golja 1981–1987 Fessel-GfK, Projektleiter im Bereich psychologische-qualitative Forschung, seit 1988 Fessel-GfK, Leitung der Abteilung „Medien ad hoc“-Forschung. Studienschwerpunkte Reichweitenforschung für Radio, Printmedien, Internet, Plakat, sonstige Medien; Quantitative Medienuntersuchungen: Radiotest (seit 1993), Media-Analyse (seit 1993), Leseranalyse Entscheidungsträger (1989–1999, 2003), Regioprint (seit 1998), AIR – Austrian Internet Radar (seit 2001), AIM – Austrian Internet Monitor (seit 1998), Optima (1980–1992), Kundenspezifische Ad-hoc-Studien, Desk Research und Marktanalysen. Weitere Tätigkeiten Lehraufträge an der Werbeakademie und am Wifi Wien, Lehrauftrag am Kuratorium für Journalistenausbildung, Lehrauftrag für den Universitätslehrgang „Marktund Meinungsforschung“ (1994–1998), Forschungsbezogene Publikationen und Vortragsaktivitäten, Mitglied des Mediaboard international der GfK-Gruppe (seit 2000), Vorstandsmitglied und Vorstandsvorsitzende des VMÖ (Verband der Marktforscher Österreichs, 1994–2000) 84 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Mag. Sigrid Svitek Leiterin der ORF-Radioforschung. Studium der Soziologie an der Grund- und Integrativwissenschaftlichen Fakultät der Universität Wien. Während und nach dem Studium Projektarbeiten im Bereich Sozial- und Konsumforschung. Seit 1984 im ORF mit dem Aufgabenschwerpunkt Radioforschung für alle ORF-Radioprogramme tätig. Vertreten in folgenden Gremien und Fachorganisationen: Programmausschuss, dem Methodengremium des Vereins Arbeitsgemeinschaft Media-Analysen Vorstand Radiotest Arbeitsgremium, dem Methodengremium des Radiotests GEAR (Group of International Audience Researchers) AMEG (Audiometer Evaluation Group) VMÖ (Verband der Marktforscher Österreichs) FMP (Verein Forum Mediaplanung) Forschungsbezogene Publikatoinen und Vertragstätigkeit 85 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de ‘How to settle the message’ – Medien- und Werbewirkung jenseits von Reichweiten und GRPs Anmerkungen zur Mediaplanung aus Sicht der (Print-) Medien Von Michael Pusler Zur Bewertung von Medialeistung Seit das Controlling in die Marketingabteilungen Einzug gehalten hat, stehen Kommunikations- und insbesondere Werbemaßnahmen zunehmend auf dem Prüfstand. Im Mediaplanungs- und -schaltprozess hat dies in den letzten Jahren zu einer Reihe von Veränderungen geführt, die zumeist im Zusammenhang mit dem Schlagwort „Effizienzsteigerung“ stehen. Neben den Mediaagenturen sind mit den Auditoren weitere Wächter des Werbe-Euro auf den Plan getreten. Dem wachsenden Kostendruck vieler Werbungtreibenden gehorchend, wird dabei leider nicht selten Effizienzsteigerung mit „Quantität pro Geldeinheit“ gleichgesetzt und häufig übersehen, dass nicht die Leistung jeder werblichen Maßnahme bzw. jedes Werbeträgers im komplexen Kommunikationsprozess mit denselben Maßstäben gemessen werden sollte. Eine bloße monetäre Optimierung ist eben nicht gleichbedeutend mit einer Optimierung in der Wirkung. Der viel beschworene Kommunikationsmix zur Wirkungssteigerung steht vielmehr für komplementäre Wirkungsleistungen sowohl der einzelnen Werbeträger als auch – zu Zwecken ihrer Gestaltung – der Werbemittel und kennt mehrere Wirkungsdimensionen (hierzu später mehr). Was für die Markenartikelindustrie der Begriff „integrierte Markenführung“ ist, findet nun aktuell in den Medien mit der Entwicklung integrierter Kommunikationslösungen seine Entsprechung. Die Konvergenz der Medien, das Berücksichtigen medienspezifischer Stärken, ermöglicht dabei den kommunikativen „Mehrwert“ für die Inserentenmarke. Wie sieht das aber nun im Marketing-Controlling aus, wird diesen Entwicklungen angemessen Rechnung getragen? Häufig nicht, denn oft werden die Wirkungsbeiträge der verschiedenen Mediengattungen im Kommunikationsmix auf derselben Aggregationsebene verglichen (Reichweite, Kontakte), ohne deren Spezifika angemessen zu berücksichtigen. 87 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Ohne hier auf einzelne Ansätze der Werbeträgeroptimierung näher eingehen zu wollen, muss festgestellt werden, dass sich viele Optimierungsansätze nicht selten im – unbestritten sehr wichtigen – Aspekt der Monetarisierung erschöpfen, und dies viel zu häufig im Sinne eines „maximum value for minimum money“. Dass mit minimum money aber eben zumeist kein maximum value zu erzielen ist, mussten einige Werbungtreibende bereits deutlich feststellen. Und das nicht nur auf Grund eines zu geringen Budgets: Was nicht oder zu selten stattfindet und wodurch sich Fehler vermeiden ließen, ist eine qualitative Evaluierung der monetären Optimierung (Media-Einkauf), also z. B. zu prüfen, ob die Marketingzielsetzung erfolgreich erreicht wurde. Dieser Beitrag beginnt daher mit der Annahme, dass Medien unterschiedliche Funktionen für den Nutzer aufweisen. Ziel ist es, Mittel und Wege der strategischen Medienforschung vorzustellen, die diese abbilden sowie für die verschiedenen Medien eine differenzierte Bewertung ihrer Leistung ermöglichen. Die vorgestellte Sichtweise soll nicht bewährte Größen der Mediaplanung in Frage stellen. Vielmehr wird beabsichtigt, den bekannten Leistungsaspekten weitere Facetten hinzuzufügen, um im Interesse der Marktpartner in der Diskussion um Media-Wirkungsbeiträge mehr Transparenz zu erzielen. Von der Kontaktchance zur Markenqualität – Wandel in der Beschreibung von Medienfunktionen für den Werbemarkt Nicht zuletzt auf Grund fundamentaler technologischer und funktionaler Veränderungen im Medienbereich besitzt das klassische Modell der Massenkommunikation – Medien beeinflussen Massen und nicht umgekehrt – schon lange keine Gültigkeit mehr. Das Schlagwort von der „Mediengesellschaft“ wird häufig bemüht, beschränkt sich aber dennoch zumeist auf den wachsenden Einfluss der Massenmedien im Lebensalltag der Menschen. Dabei spielt die zwischenmenschliche Kommunikation in der Mediengesellschaft (insbesondere die Thematisierung der Medieninhalte im Alltagsgespräch) bereits heute eine wichtige, in ihrer Bedeutung weiter zunehmende Rolle. Menschen tauschen sich über Gesehenes und Gelesenes aus, „inszenieren“ sich neuerdings selbst (angefangen bei „Big Brother“ bis hin zu den aktuellen Rate- und Casting-Shows). Welche Agenda im Konzert der Medienangebote erfolgreich ist, welche Themen dominieren, darüber entscheiden zunehmend Quoten und Auflagen. Themenkompetenz dominiert nach unserer Überzeugung im Kampf um die Aufmerksamkeit allerdings gegenüber purer Vielfalt; Medien können nur dann glaubwürdig eine Agenda besetzen (und somit als „Marke“ fungieren), wenn sie für den Leser/Seher/Hörer auch „für diese stehen“, von ihm entsprechend wahr88 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de genommen und akzeptiert werden. Diesen „Mehrwert“ zu schaffen, eben nicht nur zu informieren oder zu unterhalten, macht den markenbildenden Charakter von Medienangeboten aus. Für die Mediaforschung und die sich darauf stützende Mediaplanung ist nun wichtig, wie dieser Mehrwert einer Medienmarke darstellbar wird. Da sich Markenwert nicht per se – wie oben angeführt – sondern vielmehr als Mehrwert zu den funktionalen oder emotionalen Leistungen eines Medienangebots ergibt, kann er sich nur „in den Köpfen“ der Mediennutzer wieder finden. Folglich müssen diese – mit ihren Nutzungsmotiven für die Medienwahl – berücksichtigt werden. Doch für die Markenbindung reicht dies allein nicht aus: Neben Nutzungsmotiven ist die Relevanz z. B. eines Zeitschriftentitels für die Identifikation und Beschreibung der relevanten Bedürfnisse sowie das Zufriedenstellen dieser Nutzungsbedürfnisse von entscheidender Bedeutung. Es gilt die Frage zu beantworten, warum beispielsweise ein bestimmter Zeitschriftentitel genutzt, ein anderer aber vom Konsumenten abgelehnt wird. Erklärungen hierzu finden wir im Gratifikationsansatz (Uses-and-GratficationsApproach), der in der Medienforschung bereits eine längere Historie aufweist, aber z. B. für Printmedien bislang keine oder allenfalls nur wenig Verwendung gefunden hat. Der Uses-and-Gratifications-Approach Neben der redaktionellen Schwerpunktsetzung, die das „Wesen“ einer Publikumszeitschrift oder allgemein eines Medienangebots ausmacht (und für Publikumszeitschriften z.B. durch die Funktionsanalyse beschrieben wird), ist wesentlich, warum sich ein Käufer für einen Titel entscheidet, aus welchen Gründen der Leser einen Titel (regelmäßig) nutzt, und wie der Leser mit einzelnen Beiträgen bzw. mit Werbung umgeht. Voraussetzung hierfür sind bewusste psychologische Erwartungen, die Rezipienten in Bezug auf die Nutzung einzelner Titel haben. In diesem Zusammenhang relevant ist auch, inwiefern solche Erwartungen nach einer Nutzung erfüllt oder enttäuscht werden. Dabei kommt es darauf an, diejenigen Indikatoren zu identifizieren, die trennscharfe und differenzierende Beschreibungen liefern. Der Uses-and-Gratifications-Approach und die Weiterentwicklungen dieses Ansatzes bieten hierzu ein theoretisches Fundament, solche Indikatoren zu entwickeln. Die ersten gratifikationsorientierten Studien entstanden in den 1940er- und 1950er-Jahren. Die Neuheit dieses Ansatzes lag darin, eine Gegenperspektive zur klassischen Wirkungsforschung zu entwerfen: Fokussiert wurde nun der Rezipi89 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de ent selbst und damit die Frage, warum bestimmte Personen bestimmte Medien nutzen und wie sie davon profitieren. Das Konzept der eskapistischen und kompensatorischen Mediennutzung sollte hierbei oftmals in den Vordergrund rücken, wenngleich auch zunehmend weitere Nutzungsmotive ermittelt wurden. In den 1970er- und -80er-Jahren wurde der Ansatz sowohl theoretisch als auch empirisch systematisch weiterentwickelt: Da die Nutzungsmotive in der Regel eher abstrakt anmuten, werden sie als Motivdimensionen verstanden, die selbst durch eine Vielzahl von Items repräsentiert werden, die konkreter zu erfassen sind (z. B. wird das Nutzungsmotiv „Information“ oftmals durch Items wie „erweitert mein Wissen“, „gibt mir Entscheidungshilfen“, „gibt mir einen Überblick über unterschiedliche Meinungen“ etc. dargestellt). Große Popularität erlangte die Untersuchung von Denis McQuail, die – mittels einer Faktorenanalyse diverser Items – die Motivdimensionen „Unterhaltung“, „Integration und soziale Interaktion“, „Identität“ und „Information“ erbrachte (McQuail, Denis: Mass Communication Theory. An Introduction. London 1983). Die universelle Anwendbarkeit der Dimensionen und ihrer einzelnen Bestandteile macht das Modell so attraktiv. Gerade weil er für Print bislang wenig differenziert ist, bietet der Ansatz die Möglichkeit, mehr – und vor allem – Neues und Wichtiges über die Mediennutzung von Zeitschriften und den Mediennutzer zu erfahren und hiermit den Mediaplanern zukünftig ein Instrument zur Unterstützung strategischer Planungsprozesse zur Verfügung zu stellen. Greifen wir nur einmal eine aktuelle Diskussion in der Print-Mediaplanung auf, die den Aspekt der Umfelder bei der Werbemittelleistung (Anzeigenbeachtung, Kommunikationsleistung) thematisiert. Thematisch zum Botschaftsinhalt der Anzeige „passende“ homogene Umfelder fördern die Werbewirkung, insbesondere Beachtung, während botschaftsferne Themen diese hemmen, so die Annahme. Zu diesem Sachverhalt liefert die Rezeptionsforschung allerdings bereits seit Jahren widersprüchliche Befunde. Einzig stabiles Erklärungsmerkmal ist hier die Person selbst – nämlich ihre Einstellung gegenüber dem Botschaftsinhalt (Involvement), geprägt durch Kenntnisse über das Produkt/die Marke, das individuelle Interesse daran bzw. die Erfahrungen damit. Es ist daher angemessener, an Stelle einer „Detailbetrachtung“ zum Einfluss der unmittelbaren Umfelder von Effekten des Werbeträgers insgesamt, also der Medienmarke auf die Rezeption der Anzeige auszugehen, wie sie der Gratifikationsansatz beschreibt. Die Medienmarke schafft ihre Erlebniswelt, eine eigene Rezeptionsverfassung beim Leser, der sie ja eben deshalb auch nutzt. Wir gehen deshalb davon aus, dass die „Strahlkraft“ der Medienmarke einen 90 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de höheren Erklärungsbeitrag für die Anzeigenwirkung (Imagetransfer) beisteuert als das unmittelbare redaktionelle Umfeld. Mediamix – Der Verbraucher erlebt Marken in wechselndem Media-Kontext Mit dem Stichwort der „medialen Wirkungsbeiträge“ betreten wir das Aktionsfeld Mediamix. Der Werbungtreibende ist in erster Linie daran interessiert, dass seine Mediagelder sinnvoll und optimal eingesetzt werden. Welchen Medien diese Gelder zugeführt werden, ist für ihn zunächst zweitrangig. Der Mediamix wird häufig als angemessener Weg angesehen, um die Kommunikationszielsetzung des Werbungtreibenden medial möglichst erfolgreich umzusetzen. Dass der Autor Print im Mix eine besondere Rolle zuweist, darf hier ebenso wenig überraschen wie die Tatsache, dass „Mediamix“ nicht als Option verstanden wird, Online als „Beigabe“ zum Anzeigengeschäft zu sehen. Vielmehr kann mit dem crossmedialen Mix Print-Online dem Wunsch vieler Werbungtreibenden nach einer geeigneten Umsetzung ihrer integrierten Markenführung durch eine passende integrierte Kommunikationslösung entsprochen werden. Mediamix ist nicht die Aneinanderreihung verschiedener Werbeträger, die dieselbe Botschaft adaptiert und dabei die Besonderheiten dieser Kanäle unberücksichtigt lässt. Mediamix steht vielmehr für die Optimierung der kommunikativen Wertschöpfung zum Ziele eines höchstmöglichen Wertes sowohl für den Mediennutzer als auch den Anbieter von Leistungen/Produkten (den 91 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Werbungtreibenden). Das heißt eben nicht nur, den Mediennutzer durch eine maximale Kontaktdichte zu (über-)fordern, sondern seine Ansprache über die Wahl der Medien und Sujets sowie weiterer Werbe- bzw. Kommunikationsformen seinen Nutzungsbedürfnissen angemessen zielführend zu organisieren und zu dosieren. Werbewirkung – Was leisten Untersuchungsinstrumente und wie lassen sie sich verbessern? Werbewirkungsanalysen – und wir betrachten hier in erster Linie solche der kontinuierlichen Ex-post-Kontrolle wie Werbetrackings – differenzieren in den abgebildeten Messgrößen oft nicht valide nach Medienspezifika. Ob Awareness oder Sympathie, Markenerinnerung oder das Zurückspielen konkreter Werbeinhalte – die Zuordnung zu Medien in solchen Befragungen ist unzureichend und überfordert die Befragten häufig; die Bestimmung von Kontaktwahrscheinlichkeiten entfällt zudem häufig. Selbst eine differenzierte Abfrage nach der Werbeerinnerung in einzelnen Medien leistet nur unwesentlich eine Verbesserung, produziert möglicherweise Befragungsartefakte. Aus diesem Grund ist es unseres Erachtens wichtig und dringend geboten, bei der Bewertung der Medienbeiträge im Medien- bzw. Kommunikationsmix von bestimmten Annahmen zu den Funktionen der Medien in ihrer Rolle als Werbeträger (Awareness-Aufbau, Image, Abverkauf, Loyality-Aufbau, Nachkauf-Rechtfertigung etc.) auszugehen, um eine anschließende Evaluation vor diesem Hintergrund vornehmen zu können. Ausgehend von der exakten Beschreibung der Marketing-Zielgruppe sollte eine Übersetzung in eine passende Kommunikations-Zielgruppe erfolgen. Was heißt das? Besteht das Kommunikationsziel – und entsprechend die Ausgestaltung der Werbemittel – in der Neuproduktvorstellung, so sind bestehende Produktbzw. Markenverwender sowie solche, die zum beworbenen Produkt segmentnahe Konkurrenzprodukte verwenden, zunächst die Kernzielgruppe. Nun stellt sich die Frage, wie diese Zielgruppe mit Medien optimal zu erreichen ist. Das erfordert mehr, als nur genutzte Medien zu rangreihen und anschließend eine Auswahl nach TKP oder GRPs (Kontakten in der Zielgruppe) vorzunehmen. In der Regel sind Marketing-Zielgruppen keine homogene Masse, unterscheiden sich teilweise recht deutlich in ihren medialen und interpersonellen Kommunikationsgewohnheiten. Adressaten, die zum Produkt viel kommunizieren, auch sonst häufig um Rat gefragt werden und somit Meinungsbildnerqualitäten aufweisen, sollten kommunikativ anders angesprochen werden als Personen, die – obwohl Mitglieder derselben Marketing-Zielgruppe z. B. nach soziodemografischen Merkmalen – demselben Produkt entweder weniger Interesse ent92 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de gegenbringen oder aber ganz anders mit anderen Personen kommunizieren, möglicherweise eher zurückgezogen leben. Solchen Überlegungen hat Hubert Burda Media bereits vor Jahren Rechnung getragen mit der Entwicklung der Com-Acting-Typen (FOCUS Magazin Verlag), deren bekanntester die Info-Elite ist (zudem Entscheider im Decision Network, neuerdings ergänzt durch eine Typologie nach Medienverwendung). Im Rahmen der Untersuchung Communication Networks1 sind diese Kommunikationstypen der Mediaplanung – für die verschiedensten Märkte – zugänglich gemacht worden. Ergänzend kann durch die Identifikation der zentralen Nutzungsbedürfnisse die Verbindung zum Uses-and-Gratifications-Ansatz erreicht werden. Die spannende Frage lautet nun zum einen, wie diese Zielgruppen zu finden bzw. zu definieren sind, und daran anschließend, wie der Kommunikationserfolg aus den getroffenen Annahmen möglichst valide und zuverlässig abzubilden ist. Hierzu ist ein mehrstufiges, multimethodales Vorgehen erforderlich. Zunächst findet eine Zielgruppensegmentation auf Grundlage der Daten einer Markt-Media-Studie statt. Am Beispiel von Communication Networks – die eine hohe Fallzahl für gehobene Entscheider-Zielgruppen ausweist – sei dies die Anschaffung von Nutzfahrzeugen (B-to-B-Zielgruppe). Die Übersetzung in den Mediaplan wird unterstützt durch die Beschreibung der Produkt- bzw. 1 Communication Networks ist mit 29 917 Fällen (aktuelle Untersuchung CN 7.0) nach der VA die größte Markt-Media-Untersuchung Deutschlands. Darin finden sich auch Verwenderdaten in zentralen Märkten (EDV, Pkw, Mode, Finanzen etc.) von 13 308 Entscheidern aus dem öffentlichen Bereich sowie der Privatwirtschaft. 93 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Segmentverwender/institutionelle Entscheider (Marketing-Zielgruppe) in Kategorien einer Mediazielgruppe. Diese zeichnet sich in besonderer Weise durch die Affinität für eine bestimmte mediale Ansprache aus (nach Medien sowie z. B. auch danach, ob verstärkt mit Emotionen und/oder Informationen geworben werden sollte). Eine klassische Mediastreuplanung kann mit diesem Wissen sinnvoll ergänzt werden. Ist sich der Werbungtreibende auf Grund der Zielgruppen- bzw. Potenzialbestimmung bei der Wahl des geeigneten Werbemittels nicht sicher, lässt sich diese durch einen Werbemittel-Pretest herstellen, der bei der Stichprobenrekrutierung bereits Zielpersonen der Marketing-Zielgruppe berücksichtigt und diese nach Kommunikationsqualitäten klassifiziert. Dass dies auch mit einem Instrument der Verlagsmarktforschung möglich ist, zeigt der FOCUS-Copytest. Dabei wird der Original-Heftausgabe ein zusätzlicher Beihefter zugeführt, der beim Durchblättern des Heftes keinen merklichen Unterschied zum nicht präparierten Heft erkennen lässt. Er bietet aber die Möglichkeit, verschiedene Anzeigenmotive ‘pre-print’ (vor der eigentlichen Schaltung) zu untersuchen und so eine Entscheidungsfindung für das geeignete Sujet zu unterstützen. Aus Gründen der Kontrollierbarkeit – insbesondere der Heftdistribution unter Gesichtspunkten der Vertraulichkeit – erfordert dieser Untersuchungsansatz die kontrollierte Vorlage bei einem kleinen Teil der Nutzerschaft. Geeignet hierfür und praktikabel ist, einen Teil der Abonnenten in diese Untersuchung mit einzubeziehen, um bei Befragungen eine gezielte Stichprobensteuerung und -kontrolle zu gewährleisten. Nun wissen wir, mit welchen geeigneten Werbemitteln und über welche Werbeträger das Kommunikationsziel in der definierten Marketingzielgruppe möglichst optimal erreicht werden kann. Abschließend stellt sich die Frage, auch um für die Zukunft zu lernen, wie erfolgreich die Werbung war. Selbstverständlich kann hier nun ein gängiges Werbetracking-Instrument zum Einsatz kommen und dabei die Zuspielung der S&P-Werbeausgaben erfolgen, um Output (Bekanntheit, Recall etc.) und Input (in Euro) einander gegenüberzustellen. Aus den oben angeführten Gründen erscheint dies aber nicht ausreichend, um ein umfassendes Bild über die Leistungsfähigkeit der eingesetzten Werbeträger zu erhalten. 94 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Eine sinnvolle Werbeträger-/Werbemittel-Evaluation muss sowohl die Bestimmung der Kontaktchance mit den eingesetzten Medien, den kompletten Media-Streuplan und die kommunikative Wirkung der kompletten Kampagne ermitteln als auch konative (handlungsrelevante) Einstellungskomponenten berücksichtigen. Dabei spielen – durch den Kontakt mit dem Werbemittel – für den langfristigen Kommunikationserfolg folgende Aspekte eine zentrale Rolle: • • • • erreichte Anstöße, sich weitere Informationen zum Produkt einzuholen die Marke stärker im Relevant set of mind zu verankern eine erklärte Kaufabsicht die Bestätigung der Marken- bzw. Produktwahl in der Nachkaufphase (wichtig für Wiederholungskäufe und dauerhafte Markenbindung). Zudem ist eine ergänzende Qualifizierung auf der Ebene Marketing-/ Mediazielgruppe sinnvoll, um für zukünftige Kommunikationsmaßnahmen zu profitieren (z. B. Grad der Produkt-/Markenerfahrung; Rolle eines Meinungsbildners). Hierzu können – über Bindeglieder – Ex-post- (Werbepost-Test/ Werbetracking) und Ex-ante-Daten (Markt-Media-Untersuchungen) durch Fusion ineinander überführt werden. Dieses sehr komplexe statistische Verfahren bedarf einer eigenen, umfangreichen Erläuterung und kann daher an dieser Stelle nicht angemessen gewürdigt werden. Nachdem in der Vergangenheit nicht selten kritisiert, ist es – nicht zuletzt auf Grund zahlreicher Modelloptimierungen – in den letzten Jahren zu einem akzeptierten Verfahren weiter entwickelt worden. 95 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Kampagnenevaluation – Gedanken zu einer „Revitalisierung“ der Werbewirkungsforschung Um in der Planung angemessen berücksichtigt zu werden, müssen Erkenntnisse zu medialen Wirkungsbeiträgen die Hürden der Evaluation erfolgreich passiert haben. Das Feld der Werbewirkungsforschung und darin speziell der Werbeträgerevaluation ist kein Neues, umfangreiche Analysen mit bahnbrechenden Erkenntnissen sind daher nicht nebenbei zu erzielen und müssen zudem vom breiten Konsens der Marktpartner getragen sein. Daher können – und sollen – zu diesem Thema deshalb auch in erster Linie Perspektiven im Kontext der Untersuchung der Werbeträgerleistung aufgezeigt und keine finalen Erkenntnisse dargestellt werden. In den oben ausgeführten Überlegungen sollte deutlich werden, dass lediglich ein mehrstufiges, mehrere methodische Ansätze umfassendes Forschungskonzept den Prozess der Medienleistung transparent machen kann. Die zu wählenden Parameter müssen vor zukünftigen Anwendungen in der Mediaplanung bezüglich ihrer Aussage- bzw. Vorhersagekraft bewertet werden. Zu den geeigneten Meßgrössen: Versteht man werbliche Kommunikation vor dem Hintergrund komplexer Wirkungsbezüge, so kann Werbeplanung längst nicht mehr als „money in – value out“ verstanden und z. B. lediglich am erzielten Recall oder Abverkauf gemessen werden. Folglich müssen weiter gehende Indikatoren in der Ex-post-Betrachtung der Werbung eingeführt werden, um die Frage „Was hat es gebracht?“ den verschiedenen Zielsetzungen entsprechend angemessen beantworten zu können. Doch welche Indikatoren sollten dies sein – was bringt tatsächlich eine nennenswerte Bereicherung? Dies lässt sich nur vor dem Hintergrund primärer Kommunikationsziele beantworten; also z. B. ob in erster Linie Awareness aufgebaut, (kurzfristig) der Abverkauf stimuliert oder aber Markenbindungen dauerhaft gestärkt werden sollen. Diskussionen um ein „Benchmarking“, also den Vergleich der eigenen Medienleistung mit der der Wettbewerber (aus der eigenen oder aus fremden Mediengattungen) greifen häufig zu kurz, da nicht geklärt ist, welche Leistungsbewertung anzulegen ist. Ist es der Aufbau der Markenbekanntheit, Werberecall, oder müssten vielmehr Aspekte wie die Kundenbindung (Aufbau der Kundenbeziehung oder Haltemarketing zur langfristigen Kundenbindung) stärker berücksichtigt werden? Wir nennen es das „Indikatorenproblem“ der Werbewirkung, weil häufig – auch bei der Werbeträgerplanung – nicht ausreichend darüber nachgedacht wird, welche Erfolgskriterien überhaupt – und wenn, dann in welcher Weise – heranzuziehen sind. Ergänzend kommt hinzu, dass die vorhandenen 96 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Parameter den Werbewirkungsprozess nicht erschöpfend erklären können, neue Erklärungsansätze erforderlich sind. Sicherlich wird zukünftig eine Prüfung noch weiterer Indikatoren zur Beschreibung der Werbewirkung sinnvoll, ja sogar erforderlich sein. Wie eine (viel zu selten zur Anwendung kommende) Lösung des „Indikatorenproblems“ mit Verfahren aus der multivariaten Statistik (am Beispiel einer Bewertung der Kommunikationsleistung eines Werbemittels) vor dem Hintergrund der kommunikativen Erfordernisse in der Zielgruppenansprache aussehen kann, stellt der folgende Abschnitt vor. Werbemittelevaluation – Komplexe multivariate Analysen auf Grundlage von Strukturgleichungsmodellen Antworten auf die Frage nach den geeigneten Indikatoren der Werbewirkung, die beispielsweise den „Impact“ einer Anzeige erklären (hier gemessen in Indikatoren der Verhaltensabsicht), liefern Strukturgleichungsmodelle: Diese basieren auf Kausalanalysen in der multivariaten Statistik, der bekannteste und am häufigsten verwendete ist dabei der Lisrel-Ansatz. Hiermit kann dann der gestalterische Erfolg des Werbemittels in der Zielgruppe erklärt werden sowie der (wechselseitige) Einfluss von Gestaltungs- und Personenmerkmalen dokumentiert werden. Der Vorteil des Lisrel-Ansatzes liegt – anders als bei Verfahren wie Faktorenoder Regressionsanalyse – in der Abbildbarkeit der gerichteten Zusammenhänge 97 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de zwischen den Variablen eines komplexen Modells. Da es sich in erster Linie um ein Hypothesen testendes Verfahren handelt, müssen bestimmte Annahmen über die Wirkungsbezüge einfließen. Erst dann wird eine Modelloptimierung möglich. Die Modellannahmen ergeben sich bei unserem Beispiel aus Erkenntnissen der Printmedienforschung, die einen Einfluss sowohl von Personenmerkmalen (Produkt- bzw. Markenerfahrung zum Werbemittelinhalt; Einstellung gegenüber Werbung, Involvement) als auch informativen sowie emotionalen Bewertungskriterien auf den Anzeigenerfolg (Appetenzgrad; das Maß, in dem eine Anzeige das Interesse am Produkt weckt) unterstellen. Neben der Bestimmung der Höhe des Einflusses einzelner aggregierter Maße (Größen wie „Info quality“ werden selbst durch eine Reihe weiterer Indikatoren bestimmt wie „zeigt mir den Nutzen des Produkts“) ist der „Fit“ des Gesamtmodells die bestimmende Größe. Wie bei Zusammenhangsmaßen allgemein üblich ist das Maximum 1.0, ein Wert um .90 oder höher sollte hierbei angestrebt werden. Man erhält – für unsere Frage nach den geeigneten Indikatoren – wichtige Hinweise über Güte und Erklärungskraft einzelner Items. Dies sowohl im Hinblick auf die durch sie beschriebenen Dimensionen (im Beispiel „Info quality“, „Emo quality“ etc.; siehe Grafik) als auch im Bezug auf die Leistungsfähigkeit des Gesamtmodells. 98 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de In unserem Beispiel – einer Analyse aus Daten eines Anzeigen-Copytests – aus dem Bereich Pkw (wiederum unser bereits angeführtes Beispiel „Nutzfahrzeuge“) zeigt sich: Die Vermittlung von Informationen sowie die Markenkenntnis sind wichtig für den Anzeigenerfolg. Die emotionalisierenden Merkmale üben einen weniger zentralen Einfluss auf den Impact bzw. Appetenzgrad aus. Allerdings – und das ist das Besondere an Strukturgleichungsmodellen, weil nur hiermit darstellbar – wird auch deutlich, dass Emotionen in hoher Wechselwirkung sowohl zur Wahrnehmung der Informationen als auch der Markenbewertung stehen. Eine Passung zwischen emotionalisierenden und informierenden Eigenschaften ist folglich in dieser Produktkategorie anzustreben und kann mit diesem Forschungsinstrumentarium sehr gut begründet werden. Die Gesamtgüte des Modells zeigt in diesem Beispiel einen insgesamt guten „Fit“, gleichwohl kann – durch exploratives Vorgehen unter Heranziehung weiterer Indikatoren – durchaus noch eine Steigerung der Erklärungskraft erzielt werden. Dann wird der Ansatz „Hypothesen generierend“ und kann auch für die Gewinnung neuer Annahmen zur Werbewirkung eingesetzt werden. Medienforschung 2004 – es ist (wieder mal) viel zu tun Ausgangspunkt der vorgestellten Aspekte war die adäquate Bewertung der Medienleistung, insbesondere der Beiträge einzelner Medien im Mediamix. Hierzu sollten die genannten Forschungsverfahren Instrumente an die Hand geben, die die (Print-) Medienleistung gerade in ihren qualitativen Aspekten weit reichend abbilden. Die „Kommunikationskette“ kann hiermit – von der strategischen Mediaplanung bis hin zur Werbemittel- und Werbeeffizienzkontrolle – umfassend qualifiziert, verfolgt und abgebildet werden. Neben der monetären Kontrolle ist somit auch eine inhaltliche, konzeptionelle Optimierung möglich. Effizienzsteigerung in der Werbung ist abhängig von Planungsgrößen, die der Realität der Medienbeiträge noch näher kommen als vielfach heute der Fall, ihr in umfassender Weise gerecht werden. Und über allem steht, nicht nur effizient, sondern auch effektiv zu sein: ein Ziel, das höchstmögliche Transparenz der beteiligten Größen im Kommunikationsprozess erfordert. Die Instrumente der Werbewirkungsmessung, insbesondere zur Kampagnenevaluation, sind dieser Transparenz verpflichtet. Sie erfordern gegenwärtig noch weitere Entwicklungen, insbesondere zur umfassenderen Abbildung der Medienbeiträge einzelner Werbeträger am Kommunikationserfolg. Hierin – 99 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de und in der Vertiefung der vorgestellten Ansätze – liegt ein Hauptaugenmerk zukünftiger Aktivitäten in der Medien- und Werbewirkungsforschung mit dem vorrangigen Ziel, diese Ergebnisse anschließend für Zwecke der Mediaplanung und Kommunikationsberatung nutzbar zu machen. Michael Pusler wurde 1964 in Münster geboren. Nach einem Studium der Psychologie und Betriebswirtschaftslehre in Konstanz, Köln und Mannheim war er zunächst als Marktforschungs-Trainee und Projektleiter tätig in der qualitativen Marktforschung (GIM, Heidelberg); anschließend über mehrere Jahre Projektleiter in der Infratest Burke Wirtschaftsforschung mit dem Schwerpunkt Werbeforschung. Seit 1998 ist er Mitarbeiter von Hubert Burda Media, zunächst in der Kommunikationsforschung als Projektleiter FOCUS, von 1999 bis 2002 als Bereichsleiter Information und Unterhaltung zusätzlich in der Betreuung von Bunte und InStyle tätig. Seit 2002 leitet er im Burda Publishing Center den Bereich Marketing Support, dessen Aufgabe primär die – häufig forschungsbasierte – Unterstützung der Verlage in strategischen Fragestellungen, insbesondere im Anzeigen- und Objektmarketing ist. Kontakt: puslerm@burda.com 100 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Aufmerksamkeit Forschung und Anwendung Von Christian Scheier Einleitung Werbungtreibende und Agenturen kämpfen um ein immer knapper werdendes Gut: die Aufmerksamkeit der Konsumenten. Ohne Aufmerksamkeit keine Werbewirkung – auch die beste Imagekampagne bleibt ohne die Aufmerksamkeit der Zielgruppe wirkungslos. Die Bedeutung der Aufmerksamkeit für die Werbewirkung geht dabei weit über das reine Erregen von Aufmerksamkeit (z.B. „sex sells“) hinaus. Die neuere psychologische Forschung belegt, dass Aufmerksamkeit für das bewusste Wahrnehmen von Informationen insgesamt eine zentrale Bedeutung hat. Wir sehen viel weniger, als wir glauben. So sind wir beispielsweise mindestens ein Viertel unserer wachen Zeit blind. Dann nämlich, wenn wir blinzeln (etwa alle drei Sekunden) oder unsere Augen bewegen (drei- bis viermal pro Sekunde). Aber auch in der restlichen Zeit nehmen wir die Umwelt nicht umfänglich wahr. Menschen können schauen, ohne zu sehen. Dies resultiert in einer Blindheit durch Unaufmerksamkeit. Nur wenn die Aufmerksamkeit auf einen Bereich gerichtet ist, wird diese Information bewusst aufgenommen und verarbeitet. Diese Einschränkungen unserer Wahrnehmung haben reale Konsequenzen für die Gestaltung und Umsetzung von Werbemaßnahmen. Das Ziel dieses Artikels ist es, diese neuen Erkenntnisse zusammenzufassen, und ihre Implikationen für die Praxis der Werbung und der Mediaplanung aufzuzeigen. Die große Illusion Entgegen unser eigenen Introspektion und Intuition sehen wir die Umwelt keinesfalls scharf und umfassend. So sind wir beispielsweise ca. 100 000-mal täglich oder etwa dreimal pro Sekunde kurze Zeit blind – dann nämlich, wenn unsere Augen sich bewegen. Nur wenn das Auge stationär ist, nimmt der Mensch bewusst wahr. Der Grund für die konstanten Blickbewegungen ist, dass unsere Augen selbst die Umwelt verzerrt und mehrheitlich unscharf aufnehmen (Abbildung 1). 101 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Abbildung 1. Die große Illusion. Die Welt, wie wir sie bewusst wahrnehmen (links), sieht anders aus als die Welt, wie sie unser Auge sieht (rechts). Der Unterschied zwischen den beiden Bildern ist Rekonstruktionsleistung des Hirns. Diese nehmen wir jedoch nicht bewusst wahr – wir erliegen der Illusion, alles scharf zu sehen. Das Bild rechts zeigt, wie die abgebildete Straßenszene vom menschlichen Auge gesehen wird. Nur ein kleiner Bereich des Auges sieht die Umwelt scharf und hoch aufgelöst. Neben diesem etwa daumennagelgroßen Bereich sieht das Auge die Umwelt verschwommen. Das ist der Grund für die angesprochenen Blickbewegungen: wir müssen den kleinen, hoch aufgelösten Bereich andauernd bewegen, um ein Gesamtbild unserer Umwelt zu kriegen. Dass wir all dies nicht wahrnehmen, bedeutet, dass wir einer in vielen Studien belegten „großen Illusion“ aufsitzen – der Illusion, alles scharf zu sehen. Abbildung 2: Scanpath auf Web-Seite: Die Punkte zeigen die Fixationen, die Pfeile die Sakkaden (Blickbewegung) eines Probanden. Links die Blickdaten, rechts die resultierende Wahrnehmung. Nur beachtete Orte werden scharf gesehen und vertieft verarbeitet. Informationen zwischen zwei Fixationen werden nicht verarbeitet. Es resultiert eine stark reduzierte, lokale Sicht des Nutzers auf die Web-Seite. 102 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Der Psychologe Kevin O‘Regan stellte 1992 erstmals die Theorie der großen Illusion auf: Danach speichert der Mensch während der Wahrnehmung keine Abbilder der Welt im Kopf. Stattdessen täuschen wir uns selbst mit einem Trick: In dem Moment, in dem ein Aspekt in unserer Umgebung wichtig wird, schauen wir einfach kurz hin. Eine unbewusste Operation, welche die Illusion erzeugt, wir hätten dauernd alle Details unserer sichtbaren Umgebung im Kopf. Diese Theorie des „externen Wahrnehmungsspeichers“ ist konsistent mit Ergebnissen der neuen Künstlichen Intelligenz, wonach viel weniger als bislang angenommen im Hirn selbst gespeichert wird (Pfeifer & Scheier, 2000). Stattdessen wird die Welt als Speicher benutzt. Durch die verschiedenen motorischen Systeme können Mensch und Maschine zu jedem Zeitpunkt mit der Welt interagieren und beispielsweise Informationen abfragen oder zugreifen. Eine Konsequenz dieser Tatsache ist das „Schauen ohne Sehen“ – man kann etwas anschauen, ohne es wirklich zu sehen. Viele Verkehrsunfälle sind darauf zurückzuführen, dass der Fahrer zwar die Straße fixiert hat, den herannahenden Fahrradfahrer aber nicht gesehen hat. Blindheit durch Unaufmerksamkeit „It is a well-known phenomenon that we do not notice anything happening in our surroundings while being absorbed in the inspection of something; focusing our attention on a certain object may happen to such an extent that we cannot perceive other objects placed in the peripheral parts of our visual field, although the light rays they emit arrive completely at the visual sphere of the cerebral cortex.“ Reszo Balint 1907 (übersetzt in Husain and Stein, 1988, Seite 91) Was Reszo Balint schon Anfang des vergangenen Jahrhunderts bekannt war, hat sich in der wissenschaftlichen Psychologie erst in den letzten Jahren durchgesetzt – die Tatsache, dass wir zu jedem Zeitpunkt nur den Ausschnitt der Umwelt bewusst wahrnehmen, auf den sich unsere Aufmerksamkeit gerade richtet. Im inzwischen klassischen Experiment zur „inattentional blindness“ (z.B. Mack & Rock, 1998) werden Versuchspersonen beispielsweise Bilder mit einem Pärchen auf einer Veranda gezeigt. Immer wenn die Versuchsperson blinzelt, wird dabei ein wesentliches Detail im Bild, z.B. das Gesicht des Mannes, ausgetauscht. Das sehr robuste und häufig überraschende Resultat dieser Experimente ist, dass Menschen teilweise große Veränderungen nicht sehen, wenn diese Änderungen 103 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de während des Blinzelns erfolgen. Beim Blinzeln sind die Augen geschlossen, und man kann die Veränderung nicht sehen. Man würde aber erwarten, dass zumindest nach dem Öffnen der Augen die Veränderung bewusst wird. Das ist jedoch keineswegs der Fall. Der Mensch sieht zu jedem Zeitpunkt nur drei bis vier Details seiner Umgebung klar und deutlich. Deshalb kann es sein, dass wir auch große Veränderungen in unserer Umgebung nicht sehen, weil sie unsere Aufmerksamkeit nicht erregen. Blindheit gegenüber Veränderung Experimente zu dem Phänomen „Change-Blindness“ (Simons & Levin, 1997) belegen ebenfalls, wie stark die bewusste Wahrnehmung vom Wirken der Aufmerksamkeit beeinflusst wird. Worauf sich die Aufmerksamkeit nicht richtet, darauf wird nicht reagiert, da diese Information nicht vertieft verarbeitet wird. Bei der Blindheit gegenüber Veränderungen („change blindness“), ein durch viele Experimente belegtes Phänomen, werden sehr offensichtliche Veränderungen in Bildern – ansonsten einfache Ziele für die Aufmerksamkeit – übersehen (Abbildung 3). Abbildung 3: Beispiel für Change-Blindness-Experiment. Die Bilder werden den Versuchspersonen nacheinander angezeigt. Dazwischen erscheinen kurz so genannte „mud splashes“ – diese ziehen die Aufmerksamkeit auf sich. Dadurch werden auch große Veränderungen in den gezeigten Bildern nicht gesehen. Die Aufmerksamkeit wird in diesen Experimenten bewusst durch Flackern oder aufblitzende Flecken („mud splashes“) abgelenkt. Ähnlich den Ablenkungen in solchen Experimenten werden Konsumenten durch Informationsangebote abge104 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de lenkt. Als „eye-catcher“ vorgesehene Effekte können so übersehen werden. So werden wichtige Kontakte mit der Aufmerksamkeit „verschenkt“ und potenziell viel Geld verloren, wenn die umsatzkritischen Bereiche übersehen werden. Nachdem wir die Bedeutung der Aufmerksamkeit für die bewusste Wahrnehmung skizziert haben, wollen wir nun die Aufmerksamkeit selbst näher beschreiben. Der Scheinwerfer der Aufmerksamkeit Aufmerksamkeit ist ein Selektionsmechanismus. Auf einen Organismus wirken ständig Reize ein, die eine Informationsmenge darstellen, die seine Verarbeitungskapazitäten bei weitem übersteigen. Für den Reproduktionserfolg ist jedoch nur ein Teil dieser Information relevant. Daher ist das menschliche Hirn durch die Evolution dahingehend optimiert worden, diesen relevanten Teil der Information auszuwählen. „Wichtige“ Informationen werden weiterverarbeitet und führen zu Verhaltensreaktionen – „unwichtige“ Informationen werden ignoriert. Dieser Prozess der selektiven Wahrnehmung heißt visuelle Aufmerksamkeit. Die visuelle Aufmerksamkeit ist eines der am besten verstandenen Systeme des menschlichen Wahrnehmungsapparats (Übersicht z.B. in Pashler, 1998; Itti 2002). Die wohl populärste psychologische Metapher für das Funktionieren der visuellen Aufmerksamkeit ist die so genannte Spotlight-Metapher (Posner et al. 1980). Aufmerksamkeit bewegt sich danach einem Scheinwerfer gleich über interne Repräsentationen der Umwelt und bestimmt, welche Informationen weiterverarbeitet werden und was ignoriert wird. Viele Experimente haben die Charakteristika des Scheinwerfers untersucht (Übersicht in: Cave & Bichot, 1999). So konnte gezeigt werden, dass der Scheinwerfer seine Größe an die Objektgröße dynamisch anpassen kann. Experimente, in denen Probanden einen Stimulus bestimmter Größe erwarteten, aber einen davon abweichend großen Stimulus sahen, reagierten langsamer als Probanden, denen ein Stimulus der erwarteten Größe gezeigt wurde (z.B. Cave und Kosslyn, 1989). Probanden können ihren Scheinwerfer also entsprechend der Erwartung der Stimulusgröße variabel einstellen. Wenn Aufmerksamkeit über eine größere Region gelegt ist, reagieren wir langsamer. Fokussierte Aufmerksamkeit reduziert Reaktionszeiten. Auch die Verarbeitung ist „flacher“ bei vergrößertem Scheinwerfer. Fokussierte Aufmerksamkeit führt zu vertiefter Verarbeitung. Auch dies hat praktische Implikationen für Medien- und Werbedesign. Um eine möglichst effektive Verarbeitung von Infor105 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de mationen zu unterstützen, sollte Design die Aufmerksamkeit auf die zentralen Bereiche fokussieren. Informationen innerhalb des Scheinwerfers der Aufmerksamkeit werden besonders gründlich verarbeitet. Die Größe des Scheinwerfers ist veränderbar. Zwischen Sprüngen der Aufmerksamkeit wird keine Information verarbeitet. Die visuelle Aufmerksamkeit bewegt sich noch vor Handlungsbeginn an den Zielpunkt der Handlung und beginnt mit der Verarbeitung der unmittelbaren visuellen Umgebung. Sie dient der Vorverarbeitung von Information am Zielort. Abbildung 4: Der Scheinwerfer der Aufmerksamkeit. Objekte innerhalb des Scheinwerfers werden vertieft verarbeitet, Objekte außerhalb des Scheinwerfers werden ignoriert. Wenn Sie den folgenden Punkt kurz fixieren , hat ihre Aufmerksamkeit schon bis zu zwölf Buchstaben rechts vom Punkt vorverarbeitet. Beim Lesen hat der Scheinwerfer also eine stark asymmetrische Form. Bei Sprachen, die von rechts nach links gelesen werden, ist dieser Zusammenhang spiegelverkehrt. Ähnlich starke Unterschiede zeigen sich in Abhängigkeit vom Medium – z.B. werden Web-Seiten anders betrachtet als Plakate –, von den Charakteristika der Zielgruppe (Geschlecht, Alter, Bildung) oder auch des Nutzungskontextes (Exploration, Suche von Information) und des Involvements (high versus low). Studien zur Aufmerksamkeit im Web müssen dieser Komplexität gerecht werden. Es genügt in aller Regel nicht, 20 Probanden im Labor zu testen. Wenn sich die Aufmerksamkeit bewegt – werden Orte zwischen den zwei Zielen beachtet? Ein realer Scheinwerfer wirft sein Licht auch auf die Orte zwischen zwei Zielorten. Bei der Aufmerksamkeit scheint das nicht der Fall zu sein. Experimente haben gezeigt, dass die Aufmerksamkeit von einem Ort zum nächsten springt. Dazwischen liegende Informationen werden nicht bearbeitet. Wie ist die Reaktionszeit der Aufmerksamkeit – ist sie abhängig von der Distanz zwischen altem und neuem Ort? Es zeigen sich keine Distanz-Effekte: Der 106 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Scheinwerfer gleitet nicht entlang des Bildes, sondern springt von Ort zu Ort. Entsprechend dauert ein Sprung ungefähr gleich lang, egal wohin er geht. Würde der Scheinwerfer gleiten, würde es länger dauern, ihn zu einem weiter entfernten Ort zu bewegen als zu einem in unmittelbarer Nähe. Wir wollen uns nun der Frage zuwenden, wie Aufmerksamkeit gemessen werden kann. Eine detaillierte Übersicht zur Methodik der Aufmerksamkeitsforschung im Allgemeinen und der Anwendung dieser Verfahren im Mediendesign im Besonderen findet sich bei Scheier & Heinsen (2003). Messen der Aufmerksamkeit Die hier beschriebenen dynamischen Eigenschaften der Aufmerksamkeit können nur sehr eingeschränkt über eine direkte Befragung erfasst werden. Die visuelle Aufmerksamkeit ist ein vornehmlich unbewusster Vorgang. In der Experimentalpsychologie wird sie deshalb über so genannte implizite Verfahren gemessen. Dazu gehören Reaktionszeit-Experimente, Messungen von Hirnströmen sowie die Messung von Blick, Kopf- und Zeigebewegungen. All diese Verfahren haben gemeinsam, dass sie die Aufmerksamkeit indirekt über Bewegungen des Körpers oder Aktivitäten des Hirns messen. Dies ist möglich, weil die visuelle Aufmerksamkeit die Bewegungen unserer Augen, aber auch unseres Zeigefingers und Kopfes steuert. Der Scheinwerfer der Aufmerksamkeit bewegt sich auf auffällige Bereiche und führt dadurch zu Blickbewegungen auf diese Bereiche hin. Über Blickbewegungen kann deshalb auf Verschiebungen der Aufmerksamkeit zurückgeschlossen werden. Genauso kann hierfür aber auch das Drücken einer Taste bei einem Reaktionszeit-Experiment dienen. In einem solchen Experiment werden Sie zum Beispiel aufgefordert, eine Taste zu drücken, sobald Sie ein bestimmtes Objekt auf dem Bildschirm erkannt oder gesehen haben. Über Ihre Reaktionszeit kann auf Ihre Aufmerksamkeit zurückgeschlossen werden. Der Nachteil dieses Verfahrens ist, dass es keine bzw. nur eingeschränkte Aussagen zu räumlichen Bewegungen der Aufmerksamkeit erlaubt. Der Vorteil der Blickmessung ist, dass der Verlauf der Aufmerksamkeit über den Bildschirm auch räumlich erfasst werden kann. Man kann über spezielle Verfahren die gemessene Blickposition auf Bildschirmkoordinaten beziehen. Diese Verfahren werden im nächsten Abschnitt besprochen. Hier sei zunächst noch erwähnt, dass neben der Blickbewegung auch Bewegungen des Zeigefingers sowie Bewegungen des Mauszeigers, ja sogar Bewegungen des Kopfes zum Messen der räumlichen Aufmerksamkeit benutzt werden können. 107 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Neuere Forschungsergebnisse, z.B. von Neggers (2000), belegen die enge Kopplung von Aufmerksamkeit und Bewegungen des Zeigefingers. So kann Aufmerksamkeit auch über entsprechende Aufgaben an einem Touchscreen erhoben werden. Der Nachteil dieses Verfahrens ist neben der Nutzung von teuren Touchscreens die Tatsache, dass der Handrücken beim Zeigen einen Teil des Bildschirms verdeckt. Zudem stellen sich frühzeitig Ermüdungserscheinungen ein. Da die Messung von Kopfbewegungen bei Bildschirmdarstellungen nicht praktikabel scheint, bleibt neben der Blickmessung noch die Erhebung von Mauszeiger-Bewegungen. Dieses Verfahren beruht auf der Idee, Menschen darauf hin zu trainieren, den Mauszeiger zum „verlängerten Auge“ zu machen. Unter Zeitdruck nähern die resultierenden Mausklicks sich den Fixationen des Auges an – auf dieser Erkenntnis beruht das „Attention Tracking“-Verfahren (Scheier & Koschel, 2002). Wir wollen uns nun der Frage zuwenden, ob es Geschlechtsunterschiede in der Aufmerksamkeit, insbesondere in der Rezeption von Werbung und Medien gibt. Geschlechtsunterschiede Wir beginnen mit Bildvorlagen, die nackte Haut bzw. erotische Signale zeigen. Hier zeigen sich die Unterschiede zwischen den Geschlechtern besonders stark. Die hier referierten Resultate lassen Zweifel am „sex sells“-Slogan aufkommen – es ist vielmehr so, dass Frauen erotische Reize auf Werbevorlagen vermeiden und ablehnen. Frauen: rot Männer: blau Männer Frauen Männer Frauen Abbildung 5: Geschlechtsunterschiede in der Aufmerksamkeit am Beispiel eines Zeitschriftentitels (links) und zweier Printanzeigen (Mitte und rechts). Frauen achten deutlich stärker auf Textelemente, Männer fokussieren ihre Aufmerksamkeit stärker auf Bildelemente. 108 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Es finden sich in Frauenzeitschriften mehr erotische Darstellungen von Frauen als von Männern. Die „Zielgruppe Frau“ wird häufig mit erotischen Bildern von Frauen beworben. Ist das jedoch die richtige Strategie, um Frauen anzusprechen? Die Bilder auf der vorherigen Seite zeigen die Wahrnehmungsschwerpunkte von Männern und Frauen. Ob auf Zeitschriftentiteln, TV-Spots, Anzeigen oder Web-Seiten: Frauen vermeiden es, auf nackte Haut zu schauen. Für Männer sind solche Bilder jedoch „Vampire der Aufmerksamkeit“ – sie ziehen wertvolle Aufmerksamkeit von umsatzrelevanteren Bereichen ab und binden die Aufmerksamkeit überproportional stark. Werbemittel mit erotischen Elementen sind häufig viel weiter vom Produkt entfernt als für die kauffördernde Absicht nötig. Erotik wirkt nur, wenn sie den Betrachter aktiviert. Männer werden durch weibliche Modelle eher angeregt, während Frauen auf weibliche Erotik mit Anspannung reagieren. Dies zeigen unter anderem Messungen des Hautwiderstands beim Betrachten von TV-Spots (z.B. LaTour, Pitts und Snook-Luther, 1990). Eine Vielzahl von Studien belegt, dass Frauen sich von weiblicher Nacktheit, ja von Nacktheit generell, eher abgestoßen fühlen. Eine Untersuchung der Universität Mainz kommt zum Ergebnis, dass erotische Details in Werbung mehr schaden als nützen. Die Betrachter werden danach nicht bloß vom eigentlichen Inhalt der Werbebotschaft abgelenkt. Sie bewerten auch das beworbene Produkt eher negativ. Felser (2001) fasst die Literatur wie folgt zusammen: „Es sind in erster Linie Frauen, die Erotik in der Werbung und in den Medien allgemein als übertrieben bewerten oder ganz ablehnen.“ Zeitschriften und Werbmaßnahmen mit „Zielgruppe Frau“ würden gut daran tun, erotische Bilder nur sehr sparsam und nicht ohne Pretests einzusetzen. Zu riskant sind die Folgen eines Vampir-Effekts oder gar von Ablehnungseffekten (z.B. Reaktanz). Kann man Frauen mit nackter männlicher Haut ansprechen? Schauen wir uns ein Beispiel an. Die folgende Grafik zeigt die Geschlechtsunterschiede in der Wahrnehmung von Amica.de (MediaAnalyzer Webseitenstudie, w&v Studiendatenbank, 11/2002). Der „flirt agent“-Banner verfehlt klar die Zielgruppe der Frauen – diese schauen stattdessen auf die links abgebildete Navigationsleiste. Männer achten insgesamt stärker auf Bilder als Frauen. Frauen werden viel stärker durch Textelemente angesprochen, sei dies im Web, auf Zeitschriftentiteln oder Anzeigen. 109 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Amica.de Frauen: rot / Männer: blau Abbildung 6: Geschlechtsunterschiede in der Aufmerksamkeit am Beispiel Amica.de. Auch hier schauen Männer verstärkt auf Bilder – auch wenn diese männliche Models zeigen. Frauen konzentrieren ihre Aufmerksamkeit deutlich stärker auf die Navigationsleiste links. Abbildung 7: Crossmediale Geschlechtsunterschiede in der Aufmerksamkeit. Am stärksten ausgeprägt sind die Unterschiede in der Rezeption von Internet-Seiten. Aber auch bei der Wahrnehmung von Zeitschriftentiteln sind deutliche Unterschiede zu erkennen. 110 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Der Effekt tritt besonders stark bei der Wahrnehmung von Web-Seiten auf. Hier schauen Frauen mehr als doppelt so stark auf Textelemente. Eine genauere Analyse zeigt, dass dies auf die unterschiedliche Beachtung von Navigationselementen und Headlines zurückzuführen ist. Frauen achten signifikant stärker auf Menüleisten, Logos und Headlines. Auf der weiter vorne gezeigten Homepage von Amica.de waren es – trotz des visuell schwachen Menü-Layouts – mehr als dreimal soviel Frauen als Männer, die auf das Menü geachtet haben. Wie kann man sich diesen Unterschied erklären? Abbildung 8: Geschlechtsunterschiede im Nutzungsverhalten des Internet Frauen suchen im Internet stärker zielgerichtet Informationen als Männer. Gemäß der Ecommerce Facts 3.0-Studie der Deutschen Bank von 2002 legen Frauen beim Online-Kauf größeren Wert auf eine detaillierte Produktpräsentation, ein umfangreiches Sortiment, Bonussysteme und Zusatzdienste. Sie agieren ferner risikoscheuer. Männer lassen sich über Suchmaschinen bzw. durch Surfen zum Online-Shop leiten. Wahrnehmungspsychologisch führt ungezieltes Surfen zu verstärkter Bildbeachtung bei Männern, während Frauen insgesamt zielorientierter mit dem Internet umgehen und deshalb verstärkt auf Navigationselemente achten. Nicht nur im Internet treten deutliche Effekte auf – auch bei Print-Publikationen achten Frauen viel stärker auf Textelemente als Männer. Insbesondere achten Frauen bei Zeitschriften auf Titel und Überschriften, während Männer besonders 111 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de stark von weiblichen Models und Bildern aktiviert werden. Die gleiche Richtung, wenn auch abgeschwächt, zeigt sich bei Anzeigen. Bei den Anzeigen mit starken Signalen, wie beispielsweise die schon gezeigte Dior- und Aubade-Werbung, tritt der Effekt jedoch ebenfalls deutlich zu Tage. Fassen wir kurz zusammen: Frauen Männer • Fokus auf Texte • Vermeidung erotischer Bilder (Wahrnehmung) • Ablehnung erotischer Bilder (Einstellung) • Web: Fokus auf Navigation/ Headline • Fokus auf Bilder • „Vampir-Effekt“ bei erotischen Bildern – zu Lasten von Werbewirkung • positive Bewertung erotischer Bilder Abbildung 9: Geschlechtsunterschiede in der Erinnerung an Werbung Diese Unterschiede haben reale Auswirkungen auf die Werbewirkung – dies zeigt sich beispielsweise in der Erinnerung an Werbemittel. Durch die stärkere Textbeachtung erfassen Frauen den Inhalt der Werbung besser und erinnern sich in Folge deutlich besser als Männer an die Marke und das beworbene Produkt. In einer Studie mit 200 Probanden (MediaAnalyzer Printanzeigen-Studie, 03/2003), haben sich Frauen signifikant besser an die gezeigten Marken erinnert als Männer. Dabei trat ein interessanter Effekt auf: Die Erinnerungskurve der Frauen zeigt einen deutlich anderen Verlauf als diejenige der Männer. Die folgende Abbildung zeigt die Erinnerung für die zwölf getesteten Anzeigen bei Männer und Frauen. Beide Kurven haben eine U-Form – diese Form entsteht durch zwei in der Gedächtnispsychologie gut bekannte Effekte. Der PrimacyEffekt: Was zuerst gesehen wird, wird besser erinnert. Und der Recency-Effekt: Was zuletzt gesehen wird, wird besser erinnert. Elemente dazwischen werden schlechter erinnert, was in einer U-Form resultiert. Interessant ist nun, dass die Erinnerungsdaten der Frauen einen viel stärkeren Primacy- und Recency-Effekt zeigen als diejenigen der Männer. Frauen erinnern sich also besser an die im Test untersuchten Marken und Produkte. Männer werden häufiger durch Bilder abgelenkt als Frauen und können sich deshalb die gezeigten Marken weniger gut merken. 112 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Eine Untersuchung mit 1500 Männern der Europäischen Gesellschaft für Psychoanalyse im November ergab, dass fast drei Viertel der männlichen heterosexuellen Zuschauer in den ersten 30 Sekunden nur Augen für die Nachrichtensprecherin haben. An das Gesagte konnten sich die Männer nicht erinnern. Ähnliche Effekte sind in der Werbepsychologie bekannt – Frauen verarbeiten Werbeinformationen insgesamt genauer, sie achten stärker auf den Inhalte als Männer. Wir wollen uns nun abschließend der Frage zuwenden, wie Mediendesign die beschriebenen Zusammenhänge – speziell der visuellen Aufmerksamkeit – nutzen kann. Wir tun dies am Beispiel von Web-Design – die Aussagen lassen sich jedoch für das Design von weiteren Medien (z.B. Print, TV) verallgemeinern. Implikationen für Mediendesign: Beispiel Web Für das Design von Web-Seiten bedeuten die hier beschriebenen Zusammenhänge, dass keineswegs davon ausgegangen werden kann, dass der Konsument ein Werbemittel gesamt wahrnimmt. In der realen Nutzungssituation existieren multiple Ablenkungen für die Aufmerksamkeit. So kann es sein, dass die Marke oder das Produkt gar nicht gesehen werden. Die Ablenkungen finden sich häufig im Werbemittel selbst. 113 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Im Web sollte die Aufmerksamkeit der Nutzer über entsprechend gestaltete „eyecatcher“ über die Seite geführt werden. Bewegungen der Aufmerksamkeit basieren auf lokaler Information – sobald der Nutzer in die Seite „eingestiegen“ ist, bestimmt der Einstiegsort, wohin die nächste Blickbewegung geht. Auffallende Elemente in der unmittelbaren Umgebung werden verstärkt beachtet. Dieser Domino-Effekt wiederholt sich nach der zweiten, dritten usw. Blickbewegung. Das Ziel von nutzeradäquatem Web-Design muss es sein, den Domino-Effekt durch entsprechende Designmaßnahmen zu führen. Dabei kann beispielsweise eine Eingangsanimation helfen, die in wenigen Sekunden die wichtigen Elemente der Web-Seite anzeigt und sich dann schließt. Auch über das sukzessive Laden von Seitenelementen lässt sich die Aufmerksamkeit der Nutzer gut zu den wichtigen Elementen hinführen. Internet-Nutzer können auf Grund ihres Wahrnehmungsapparats zu jedem Zeitpunkt nur eine geringe Informationsmenge verarbeiten. Alle Informationen, wie häufig anzutreffen, auf einen Schlag zu präsentieren, entspricht nicht den Stärken der menschlichen Wahrnehmung. Konsistent mit dieser Betrachtung sind Resultate, die zeigen, dass sich Sakkaden verlangsamen, wenn ablenkende Information („Distraktor“) präsentiert wird. Wenn zeitgleich ein Zielobjekt und ein Distraktor gezeigt werden, erhöhen sich die Reaktionszeiten am stärksten, wenn sich der Distraktor an demselben Ort wie das Zielobjekt befindet (Walker et al. 1997). Wichtige Elemente einer WebSeite sollten daher möglichst frei von störenden, ablenkenden Informationen sein. Störend können dabei alle Informationen sein, die sich physisch zu nahe am Ziel befinden. Sie treten dann in Wettbewerb um die Aufmerksamkeit und verlangsamen oder verhindern das schnelle Finden des Zielobjekts (z.B. Suchzeile, Produkt, Bestell-Knopf). Umgekehrt zeigt sich im „gap-effect“ eine signifikante Reduktion der Reaktionszeit zu einem Zielobjekt. In diesem Paradigma wird der Fixationspunkt ausgeblendet, bevor die Sakkade startet. Damit kann sich die visuelle Aufmerksamkeit vom Fixationspunkt lösen und schneller reagieren. Für das Web-Design bedeutet dies, dass Informationen nicht zu „sticky“ sein dürfen. Wird die Aufmerksamkeit zu stark auf ein Element gebunden, werden andere, wichtige Elemente nicht oder erst verspätet gesehen. Ein optimales Design führt den Nutzer in wenigen Schritten auf die relevanten Regionen der Seite, wobei die einzelnen „eye-catcher“ nicht zu „sticky“ sein dürfen, um so ein angenehmes Abarbeiten der Informationen zu unterstützen. Zusammenfassung und Ausblick Das Ziel dieses Artikels ist es, neue Erkenntnisse zur Erforschung der Aufmerksamkeit sowie ihre Implikationen für Werbung und Mediendesign zusammenzufassen. 114 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Die zentrale Erkenntnis ist dabei, dass der Mensch – und damit der Konsument – viel weniger sieht als gemeinhin angenommen wird. Experimente zur Blindheit gegenüber Veränderungen und zur Blindheit durch Unaufmerksamkeit belegen, dass wir die Umwelt nicht detailliert in unserem Hirn repräsentiert haben. Stattdessen nutzt unser Hirn die Umwelt selbst als eine Art externen Speicher. Dies bedeutet, dass wir zu jedem Zeitpunkt die Umwelt nach relevanten Informationen absuchen („scanning“). In diesem Prozess spielt die Aufmerksamkeit eine zentrale Rolle. Ohne Aufmerksamkeit keine bewusste Wahrnehmung – so könnte man die hier referierten Resultate zusammenfassen. In diesem Sinne ergibt sich eine neue Bedeutung der von Georg Franck beschriebenen „Ökonomie der Aufmerksamkeit“ – Werbung und Medienplanung müssen die Aufmerksamkeit der Konsumenten in den Mittelpunkt rücken. Dies bedeutet auch, dass neue Forschungsmethoden zum Einsatz kommen müssen. Denn Aufmerksamkeit lässt sich über verbal abgefragte Erinnerung – z.B. im „aided“ oder „unaided recall“ – nur sehr eingeschränkt abgreifen. Nur das zeitnahe Verfolgen der Aufmerksamkeitsbewegungen auf dem Werbemittel selbst stellt sicher, dass die relevanten Bereiche auch wirklich gesehen werden. Dies gilt insbesondere auch für die Mediaplanung – hier kann und sollte das Werbemittel im Werbeträger auf die Wirksamkeit im Hinblick auf die Zielgruppe untersucht werden. Wie wirkt die Anzeige in der Zeitschrift A oder der Zeitung B? Wie wirkt der TV-Spot im Sender C oder der Werbebanner auf der Web-Seite D? Wo soll ein Werbemittel platziert sein? Wie häufig soll es geschaltet werden, um eine maximale Wirkung, aber keine Reaktanz zu erzielen? Neuere Verfahren zur Erfassung der Aufmerksamkeit (z.B. Scheier & Koschel, 2002) werden eingesetzt, um diese Fragen umfassend und zeitnah zu beantworten. Sie bieten den Werbungtreibenden eine optimale qualitative Vorstufe zur Mediaplanung oder den Redaktionen ein Tool zur Auswahl von TitelblattAlternativen. „AttentionTracking“ (www.mediaanalyzer.com) ermöglicht Werbungtreibenden und Agenturen, Werbemittel im Pretest oder im Posttest zu testen oder im Rahmen von Copytests Aufmerksamkeitsverläufe bei der Nutzung von redaktionellem Teil und Werbemitteln zu erhalten. 115 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Dr. Christian Scheier Psychologe mit Spezialgebiet Künstliche Intelligenz. Diplom über statistische Verfahren in der Einzelfallforschung (Zeitreihenanalyse). Promotion in Künstlicher Intelligenz (Universität Zürich). Drei Jahre Postdoctoral Fellow am California Institute of Technology (Pasadena, USA) mit Schwerpunkt auf Psychophysik, Blickmessung und Aufmerksamkeit. Autor von über 50 wissenschaftlichen Publikationen und des Standardwerks der neuen KI („Understanding Intelligence“, MIT Press). Seit 2002 Geschäftsführer der MediaAnalyzer Software & Research GmbH in Hamburg. Aktuelle Forschungsprojekte mit den Universitäten Hamburg, Osnabrück und Beratertätigkeit am California Institute of Technology im Bereich Methoden, Aufmerksamkeit und Erinnerung. Kontakt: scheier@mediaanalyzer.com Literatur Abrams, RA., Meyer, DE., Kornblum, S. Eye-Hand Coordination: Oculomotor Control in Rapid Aimed Limb Movements. J. Exp. Psycholog. Hum.: Perception and Performance., 16/1990, 248–267 Bekkering, H., Pratt, J., Abrams, RA. The Gap Effect for Eye and Hand Movements. Percept Psychophys., 58/1996, 628–635 Cave, K.R. & Bichot, N.P. Viso-Spatial Attention: Beyond a Spotlight Model. Psychonomic Bulletin and Review, 6/1999, 204–223 Deubel, H., Schneider, WX. Saccade Target Selection and Object Recognition: Evidence for a Common Attentional Mechanism. Vision Res., 36/1996, 1827–1837 Deubel, H., Schneider, WX., Paprotta, I. Selective Dorsal and Ventral Processing: Evidence for a Common Attention Mechansim in Reaching and Perception. Visual Cognition, 5/1998, 81–107 Franck, G., Ökonomie der Aufmerksamkeit, in: Merkur Nr. 534/535 (September/ Oktober 1993) 116 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Felser, G.: Werbe- und Konsumentenpsychologie. Eine Einführung. Stuttgart (Spektrum Akademischer Verlag) 2001 Husain M. & Stein J. „Reszo Balint and His Most Celebrated Case“, Archives of Neurology 45/1988, 89–93 Itti, L., Visual Attention, In: The Handbook of Brain Theory and Neural Networks, 2nd Ed., MIT Press (M. A. Arbib Ed. 2002) Kroeber-Riel, W. Bildkommunikation. (Verlag Vahlen) 1996 Lee, D.K, Koch, C. & Braun, J. Attentional Capacitiy is Undifferentiated: Concurrent Discrimination of Form, Color, and Motion. Percept. Psychophysics, 61(7)(1999) 1241–1255 Mack, A., & Rock, I.. Inattentional Blindness. Cambridge, MA, USA (The MIT Press), 1998 Neggers, S. Oculomotor Behavior During Pointing. Berlin (Wissenschaftlicher Verlag Berlin) 2002 Pashler, H. The Psychology of Attention. Cambridge, MA (MIT Press) 1998 Pfeifer, R., Scheier, C. Understanding Intelligence. Cambridge, MA (MIT Press.), 2. Aufl. 2000 Posner, M.I., Snyder, C.R.R. & Davidson, B.J. Attention and the Detection of Signals. Journal of Experimental Psychology: General, 109/1980, 160–174 Scheier, C. & Koschel, K.. Your Customer‘s Eyes. Planung & Analyse, 10/2002 Scheier, C.; Reigber, D. & Egner, S. Messen der Aufmerksamkeit bei InternetNutzern – Ansatz und Einsatz eines neuen Verfahrens zur Online-Messung von Aufmerksamkeit. 2. Aufl. 2003 Theobald, A./Dreyer, M./Starsetzki, T. Online-Marktforschung. Theoretische Grundlagen und praktische Erfahrungen. Wiesbaden (Gabler), 2. Aufl. 2003 Simons, D. & Chabris, C. Gorillas in Our Midst: Sustained Inattentional Blindness for Dynamic Events. Perception, Volume 28/1999, 1059–1074 Simons, D. J., & Levin, D. T. Change Blindness. Trends in Cognitive Sciences, 1(7)(1997), 261–267 117 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Walker, R, Deubel, H, Schneider, WX, & Findlay, JM. Effect of Remote Distractors on Saccadic Programming: Evidence for an Extended Fixation Zone. J. Neurophysiol., 78/1997, 1108–1119 Yom, M.(1997). Frauen und Online-Medien, Löw & Vorderwülbecke 118 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Dem Online-Nutzer auf der Spur Geeignete Instrumente für die Mediaplanung Von Dieter Reigber Online-Nutzung ist ein Forschungsfeld der Mediaforschung1, weil Reichweiten, wie sie für die klassischen Werbeträger ausgewiesen werden, auch für Angebote im Internet gemessen werden können. Dem Online-Nutzer auf die Spur zu kommen, heißt nicht nur über Ergebnisse zum Internet-Nutzungsverhalten, über Nutzerpotenziale oder Reichweiten von Online-Werbeträgern zu berichten. Für Mediaforscher stellt sich zuerst die Frage: „wie soll Online-Nutzung gemessen werden?“ Der Beitrag befasst sich insbesondere mit den für die Mediaplanbarkeit wichtigen Bedingungen. Welche Erhebungsverfahren werden eingesetzt, um Online-Nutzungsverhalten zu messen? Welche davon sind zur Darstellung von Reichweiten geeignet? Welche Definition des Online-Nutzers ist die richtige? Welche Fragen müssen hierzu in Umfragen gestellt werden und wie müssen sie formuliert werden, damit der normale Mensch sie versteht? Oder wie müssen technisch gemessene Logfile-Daten interpretiert werden, um vom Client, dem Rechner, auf den Visitor, den Nutzer zu schließen? Welche Zielgruppenmerkmale bzw. welche -modelle (Typologien) eignen sich, um Online-Nutzer und deren Nutzungsverhalten zu beschreiben? Die Online-Forschung steht vor großen Herausforderungen. Die Dynamik des Online-Marktes erfordert Maßnahmen, die Auswirkungen auf die Erhebung von Daten haben. An der Schwelle der Internet-Ära bekommt die klassische Marktforschung zunehmend Legitimationsprobleme, weil sie den Anforderungen an Datenaktualität nicht nachkommt. Und die online durchgeführte Marktforschung hat noch Akzeptanzprobleme, weil sie keine repräsentativen Daten erzeugt. In diesem Spannungsfeld versuchen Markt-/Mediaforscher, die sich dem Thema Online-Forschung verschrieben haben, bewährte Standards der klassischen Medienforschung zu erhalten und für neue Konventionen und Erhebungsverfahren 1 Medienforschung wird an Universitäten und Instituten betrieben, die sich allgemein mit dem Mediennutzungsverhalten befassen. Mediaforschung ist eine Dienstleistung der Medienunternehmen und befasst sich insbesondere mit den Medien als Werbeträger. Die Mediaforschung unterscheidet redaktionelle Forschung von der für die Vermarktung der Medienprodukte wichtigen Reichweitenforschung. 119 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de offen zu sein. Was beobachten wir gegenwärtig? Neue Verfahren werden diskutiert, werden versuchsweise eingesetzt, verworfen, erneut diskutiert, überarbeitet und verändert eingesetzt.... Es ist ein langwieriger Forschungsprozess, bis in den zuständigen Gremien (AG.MA, AGF) über Konventionen verbindlich entschieden wird. Auch politische Faktoren beeinflussen das Geschehen. Warum sollte das im Falle der Online-Reichweitenforschung anders sein? Anhand von Ergebnissen, Beispielen aus der Praxis und Studienvergleichen wird der Weg nachgezeichnet, den die Online-Mediaforschung bis Jahresende 2003 genommen hat. Ende der neunziger Jahre werden neue Online-Forschungsinstitute gegründet, und es werden Forschungsallianzen geschmiedet. Alle haben das Ziel, eine Online-Währung zu etablieren. Die veröffentlichten Reichweitendaten aber sorgen für Verwirrung. Denn die verschiedenen Erhebungsverfahren und Nutzerdefinitionen führen dazu, dass nicht vergleichbare Daten erzeugt werden. Für die Mediaplaner ist das eine Zumutung. Nach sieben Jahren Online-Forschung ist es an der Zeit, sich auf Konventionen zu einigen. Die relevanten Online-Vermarkter, unter ihnen Access-/Content-Provider, Zeitschriften-/Zeitungsverlage und TV-Sender, haben sich 2002 in der Arbeitsgemeinschaft Online-Forschung (AGOF) zusammengeschlossen und planen, eine große Online-Analyse auf den Markt zu bringen. Deren Mediaforscher sind zurzeit dabei, das geeignete Instrument für künftige Online-Mediaplanung zu entwickeln. Es ist ein ambitioniertes Projekt, das den Konsens aller Marktteilnehmer erfordert. Und es soll trotz knapper Kassen – die Online-Werbung erzielt noch keine großen Umsätze – in naher Zukunft umgesetzt werden. I. Möglichkeiten und Grenzen der Online-Forschung – ein erster Überblick Verfahren und Ziele der Online-Forschung Online-Marktforschung ist ein weites Feld. Sie umfasst alle Segmente der Marktforschung, die sich auf das Internet als Plattform beziehen. Das Internet ist auch (Massen-)Medium. Folglich befasst sich die Medienforschung neben den klassischen Massenmedien wie Zeitungen, Zeitschriften, Fernsehen oder Hörfunk mit dem Internet als Kommunikationsmittel. In der kommerziellen Markt-/ Mediaforschung ist das Hauptaugenmerk auf die Reichweiten konkreter OnlineWerbeträger gerichtet. Neben der Presse-, Fernseh- oder Hörerforschung gesellt sich nun ein weiteres Forschungsgebiet hinzu, verkürzt Online-Forschung genannt. Online-Forschung wird in Medienunternehmen quantitativ und qualitativ-psychologisch betrieben. Ersteres repräsentativ und auf Basis hoher Fallzahlen, z.B. 120 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de durch Umfragen, Inhaltsanalysen2, Logfile-Analysen3, und Letzteres in Kleingruppen oder individualdiagnostisch, z.B. durch Gruppendiskussionen4 oder Usability-Tests5. Umfragen dienen vor allem dem Zweck der Darstellung von Reichweiten, Nutzerstrukturen, Einstellungen und Konsumverhalten für die Werbeplatzvermarktung. Denn nur mit Hilfe repräsentativ erhobener Daten lassen sich über Zielgruppen allgemeingültige Aussagen machen bzw. Potenziale hochrechnen. Ergebnisse qualitativ-psychologischer Forschung dienen in erster Linie der Optimierung von Medienprodukten (Zeitschriftentitel, Fernsehsendungen, InternetAuftritte) und damit dem redaktionellen Bereich. Sie lassen sich auch für die Vermarktung einsetzen. In der kommerziellen Mediaforschung spielen Reichweiten eine große Rolle. Die Reichweite einer Tageszeitung, einer Publikumszeitschrift oder einer Fernsehsendung zeigt an, wie viele Menschen in einem Erscheinungsintervall einen Titel oder in einem Zeitsegment welche Sender/Programme nutzen. Die Reichweite wird als Prozentanteil bezogen auf die Gesamtbevölkerung oder hochgerechnet in Tausend bzw. Millionen Leser/Seher ausgewiesen. Was im klassischen Mediensektor seit langem Konvention ist, soll nun auch im Online-Markt Standard werden. Reichweiten werden in repräsentativen Bevölkerungsumfragen erhoben oder im Fall des Fernsehens in repräsentativen Panels (GfK, ACNielsen) elektronisch gemessen. An einem normalen Tag schauen 93 Prozent der Bevölkerung Fernsehen, lesen 86 Prozent eine Tageszeitung und jeweils aktuell nutzen 93 Prozent eine Publikumszeitschrift; soll heißen, diese Medien sind in der Bevölkerung 2 Eine Forschungsmethode, um Kommunikationsinhalte in Texten, Bildern systematisch (mithilfe eines Kategoriensystems analog dem Fragebogen bei Umfragen) und quantitativ zu beschreiben. Praktisches Beispiel: Websites können anhand formaler und inhaltlicher Kriterien miteinander verglichen werden (Benchmark-Analyse). 3 Bezeichnung für die gezielte Erfassung und Auswertung der Zugriffe auf einer Website. Die IVW weist mit einem speziellen Logfile-Analyseverfahren die Visits und Page-Impressions geprüfter Online-Angebote aus. 4 Klassische Form: Ein Moderator einer Ad-hoc-Gruppe stellt ein Thema zur Diskussion (z.B. zum Inhalt und Layout einer Zeitschrift) und regt die Teilnehmer dazu an, persönliche Meinungen oder Vorstellungen zu äußern und mit den anderen auszutauschen. Für die Mediaforschung dienen Gruppendiskussionen häufig als Vorbereitung für Umfragen. Es ergeben sich dabei Aussagen (Indikatoren), die dann auf empirischer Breite hinsichtlich ihrer Allgemeingültigkeit überprüft werden. 5 Probanden testen Websites. Ein Moderator stellt Aufgaben. Das Nutzungsverhalten und die Kommentare der Probanden werden aufgezeichnet. Das Ziel eines Usability-Tests ist es, die Schwächen einer Website aufzudecken. Der Fokus liegt dabei auf Benutzerfreundlichkeit, Navigation, Funktionalität, Verständlichkeit und Design. 121 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de weit verbreitet.6 Das Internet erreicht täglich etwa 30 Prozent der Bevölkerung.7 Der Aufwand, mittels repräsentativer Untersuchungen die Reichweiten einzelner Online-Angebote oder Channels (Unterseiten) zu erheben, ist sehr hoch und kostet viel Geld. Deutschlands Medienunternehmen finanzieren große medienübergreifende Reichweitenstudien wie die Media-Analyse (MA). Zeitschriftenverlage geben darüber hinaus Markt-/Media-Studien (z.B. TdWI, VA, Dialoge, CN) heraus. TV-Sender veröffentlichen TV-Quoten aus dem GfK-Panel und Radiosender Reichweiten aus der Hörfunk-MA. Und zusätzlich bieten sie spezielle Markt-/Media-Planungssysteme für elektronische Medien an, z.B. die VuMA8. Die hohen Werbeumsätze rechtfertigen diese Ausgaben. Die Print-MA veröffentlicht alljährlich die Reichweiten von ca. 170 Zeitschriften-, überregionalen Tageszeitungs- und Wochenzeitungstiteln und macht darüber hinaus sehr detaillierte Angaben zur Soziodemografie und über die Privathaushalte der Bevölkerung. Markt-/Media-Studien ergänzen diese Informationen mit Daten zum Mediennutzungsverhalten allgemein, zum Konsumverhalten, über Besitz und Anschaffung von Konsumgütern, über die Verwendung von Markenprodukten, aber auch über qualitativ-psychologische Merkmale, Einstellungen und Verhaltensweisen in der Bevölkerung. Die MA erhebt seit drei Jahren auch die Nutzung des Internet, veröffentlicht aber keine Reichweiten in Form von Nutzungswahrscheinlichkeiten9. Verschiedene mehrthematisch angelegte Markt-/Media-Studien (AWA10, CN11, TdWI12) gehen da einen Schritt weiter. Sie weisen zumindest für die Online-Nutzung insgesamt einen Reichweitenwert aus, z.B. den „Online-Nutzer pro Tag“. Andere 6 Eigene Auswertungen. Quellen: TdWI 2002/03 und MA Intermedia 2002. 7 Quelle: Allensbacher Computer- und Telekommunikations-Analyse ACTA 2003 8 VuMA. Verbraucher- und Medienanalyse. Hrsg. ARD-Werbung, ZDF Werbefernsehen und Radio Marketing Service (RMS). Markt-/Media-Studie mit jährlicher Erscheinungsweise seit 1995. 9 Bezeichnet die Wahrscheinlichkeit, dass ein Mediennutzer Kontakt mit einer durchschnittlichen Ausgabe eines Mediums hat. Detailliertere Informationen dazu unter http://medialine/focus.de. Stichworte: Eichung oder Nutzungswahrscheinlichkeit. 10 AWA. Allensbacher Werbeträger-Analyse. Hrsg.: Institut für Demoskopie Allensbach. Markt/Media-Studie mit jährlicher Erscheinungsweise seit 1959. 11 CN. Communication Networks. Markt-/Media-Studie des FOCUS Magazin Verlags. 12 TdWI. Typologie der Wünsche Intermedia. Hrsg. v. TdW Intermedia GmbH & Co. KG, Offenburg (BAC Burda Advertising Center GmbH der Hubert Burda Medien). Markt-/Media-Studie mit jährlicher Erscheinungsweise seit 1986. 122 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Markt-/Media-Studien, die auf das Thema Computer und Internet spezialisiert sind (ACTA13, Online–Offline, ORM14), gehen noch einen Schritt weiter und bieten auch Reichweitendaten über Online-Angebote (Domains) an. NetMetrix-Panels15 (NetRatings16) messen die Internet-Nutzung repräsentativ in Privathaushalten und weisen Monatsreichweiten einer Vielzahl Websites inklusive der Unterseiten aus. Apropos technische Messung der Online-Nutzer: Visits und Page-Impressions, wie sie die IVW17 ausweist, sind per Definition keine Reichweiten, sondern Kontakte. Analysiert werden die Nutzerströme (Logfiles) einer Website. Der Online-Nutzer (Visitor) bleibt unbekannt. Unter Verwendung von Cookies18 können zumindest die Nutzungsvorgänge der Rechner bzw. Browser (Clients) von Online-Nutzern gemessen werden. Auf diese Weise lässt sich die Spur eines Client für eine definierte Zeit verfolgen (tracken). Seit 1997 veröffentlicht die IVW regelmäßig die Abrufzahlen der Online-Angebote ihrer Mitglieder. Nach Einführung der Messung sind die monatlichen Zahlen von wenigen Hunderttausend enorm gestiegen und sind zum Ende des Jahres 2001 auf 30 Milliarden Abrufe pro Monat geklettert.19 Damit die IVW mit den Anforderungen dieses explosionsartig wachsenden Marktes Schritt halten und weiterhin zuverlässige Vergleichszahlen über die Online-Nutzung im deutschsprachigen Raum und darüber hinaus liefern kann, ist die Umstellung auf ein neues Messsystem notwendig geworden. 13 ACTA. Allensbacher Computer- und Telekommunikationsanalyse. Hrsg.: Institut für Demoskopie Allensbach. Markt-/Media-Studie mit jährlicher Erscheinungsweise seit 1997. 14 ORM. Online Reichweiten Monitor. Hrsg.: Arbeitsgemeinschaft Internet Research e.V. (AGIREV). Online-Markt-/Media-Studie als Nachfolgestudie des GfK Online-Monitors. Erscheinungsweise halbjährlich seit 2002. 15 Bezeichnung für ein repräsentatives Online-Panel, das die Online-Nutzung seiner Teilnehmer kontinuierlich misst. 16 Nielsen/NetRatings im VNU Konzern. Anbieter eines NetMetrix-Panels in Deutschland seit Oktober 2000. NetRatings hat die Panels von MMXI und NetValue übernommen und ist damit einziger Anbieter in Deutschland. 17 IVW. Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern e.V. 18 Seit 2002 verwendet die IVW das Skalierbare Zentrale Messverfahren (SZM-Verfahren) und setzt den Besuchern IVW-geprüfter Online-Angebote Cookies. Im selben Jahr übernimmt INFOnline diese Aufgabe. 19 Siehe hierzu http://www.ivw.de/news/praxis35.html 123 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Tabelle 1 Zählen und Messen von Zugriffen im Internet sind komplexe Aufgaben. Entwikkelt aus den strengen Vorgaben der IVW, bietet die INFOnline20 mit dem Skalierbaren Zentralen Messverfahren (SZM) nicht nur den Werbeträgern, sondern allen Interessierten die Möglichkeit, über das System die Zugriffe nach einem einheitlichen Standard zu erheben. Die Ergebnisse des SZM sind nicht vergleichbar mit den Ergebnissen einer traditionellen Logfile-Analyse. Traditionelle Logfile-Analysen verfälschen die Zugriffsstatistik z.B. bei dem Einsatz von Frames. Sie weisen mehr Seitenzugriffe aus als real Inhalte-Seiten aufgerufen werden. Zwischenspeicher im Internet oder auf den Rechnern (Proxies, Caches) verhindern zum Teil, dass Zugriffe auf ein Online-Angebot gezählt werden. Das SZM als zentrales System berücksichtigt die Anforderungen an effizientes Zählen und Messen. Die Messung und Ausweisung von Visits und Page-Impressions wird nur der Anfang sein. Vorrangiges Ziel der INFOnline ist deshalb die zügige Entwicklung weiterer Messkriterien in Zusammenarbeit mit der IVW und den Marktpartnern. Im Grunde genommen wissen wir viel über die Nutzung von Online-Angeboten, aber zu wenig über die Online-Nutzer und deren Nutzungsgewohnheiten. Das SZM-Verfahren bietet die Grundlage, um mehr über den Online-Nutzer zu erfahren. Voraussetzung hierfür ist das Setzen von permanenten Cookies, um den Client bei jedem Besuch einer IVW-gemeldeten Site zu identifizieren und seine Nutzung zu „tracken“, das heißt sie aufzuzeichnen und auszuwerten. 20 INFOnline. Im Jahr 2002 aus der IVW ausgegründete GmbH, Gesellschafter sind die MedienVerbände BDZV, DMMV, VDZ, VPRT und andere Verbände. Anders als die Satzung der IVW vorschreibt, steht INFOnline auch Nichtwerbeträgern offen und darf Marktforschungsleistungen anbieten. 124 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de IVW/INFOnline: Vom Visit zum Unique Client Online-Tracking von Rechnern/Browsern www.abc.de ....szmbox.de Collector-Server www.def.de ivw.de ....szmbox.de www.xyz.de Logfiles mit IP-Adressen Kennungen: anonyme visits www.irgendwie.de ....szmbox.de Quelle: IVW/InfOnline: Domainaufbau des SZM (Skalierbares zentrales Messverfahren) Abbildung 1 Ungefähr 75 Prozent der Clients akzeptieren Cookies und können vom SZM auch über längere Zeiträume zugeordnet werden. Etwa 20 Prozent der Clients haben eindeutige Kennungen außerhalb der Cookies. Diese Informationen reichen aus für eine Hochrechnung. Ungefähr 5 Prozent der Clients sind nicht zuzuordnen, aber die Visits können geschätzt werden. Dies lässt einen Vergleich mit den anderen Gruppen zu. Die SZM-Box ermittelt Cookies oder Kennungen zur Bestimmung der Visits. Diese Kennungen der Visits werden in Listen gesammelt und an den Collector-Server übertragen. Die Client-Informationen sind anonyme Kennungen von „requests“, die in Listen zusammengefasst werden. Die Listen werden an den Collector übertragen und ausgewertet. Es entsteht eine Datenbank, die einige anonyme Strukturmerkmale des Client enthält sowie Frequenzen, Verweildauer und Anzahl genutzter Angebote. Erst durch die Verzahnung der von INFOnline erhobenen Messdaten mit Umfragen lassen sich die Ergebnisse für die Online-Mediaplanung nutzbar machen. Online-Forschung online Das Medium Internet entwickelte sich vom reinen Forschungsgegenstand zu einer Forschungsplattform; soll heißen, es wird nicht nur über die Online-Nutzung geforscht, sondern das Internet dient zugleich als Instrument zur Erhebung von Daten. Das ist ein weitgehend neuer Aspekt in der Medienforschung. Denn 125 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de dass ein Medium durch sich selbst Nutzungsdaten erhebt, kennen wir ansatzweise nur aus dem Bereich der Fernsehforschung. Das Internet ermöglicht nicht nur die Messung der Nutzung, sondern auch die Befragung des Nutzers. Bewährt hat sich das Internet als Forschungsinstrument in der qualitativen OnlineForschung. Gruppendiskussionen werden online durchgeführt. So genannte quasi-biotische Labor-Experimente (zu Hause unter natürlichen Bedingungen) oder Usability-Tests in Online-Pools sind auch für die kommerzielle Markt-/ Mediaforschung interessante Tools.21 Mit dem wichtigsten Instrument der Mediaforschung, der Erhebung repräsentativer Daten im Internet, hat es so seine Tücken. Denn repräsentative Bevölkerungsumfragen sind mangels hinreichender Verbreitung noch nicht möglich. Repräsentative Umfragen unter Internet-Nutzern sind in Online(Access)-Panels möglich, wenn die Panel-Teilnehmer a) „offline“ rekrutiert werden, also durch Telefonumfrage oder persönliche mündliche Befragung; oder b) online „aktiv“ rekrutiert werden, also mittels Zufallsverfahren und anschließender Identifizierung. E-Mail-Adressen reichen hierzu nicht aus. Die Identität wird ganz konventionell (postalisch, telefonisch, persönlich) festgestellt.22 Nicht anders verhält es sich für ein NetMetrix-Panel, das die Online-Nutzung auf elektronischem Wege über die Logfiles erfasst und auswertet. Für alle Online-Panel gilt: da sich die Struktur der Online-Nutzerschaft weiterhin ändert, muss ein Panel an die Realität ‚angepasst‘, d.h. mit Hilfe bevölkerungsrepräsentativ durchgeführter Referenzstudien eine Personengewichtung vorgenommen werden. Für den Anbieter einer Website bietet sich eine Alternative an, mehr über die Struktur seiner Nutzerschaft zu erfahren. Über ein zufallsgesteuertes PopUp (bekannt auch als NthViz-Verfahren, eingeführt von Infratest Burke) können die Besucher online befragt werden.23 21 Kritisch setzt sich damit Heinz Grüne (rheingold Institut, Köln) auseinander in seinem Beitrag: Online und Online-Forschung in Deutschland – eine schwierige Kombi-Nation?! In: Planung & Analyse 1/98, S. 12. 22 Vgl. Standards zur Qualitätssicherung für Online-Befragungen. Ausgabe Mai 2001. Hrsg. v. ADM et. al. Frankfurt/Main, 2001, S. 17ff. Etwas anderer Ansicht, wie ein Online-Panel zu definieren sei, sind Göritz, Anja; Reinhold, Nicole und Batinic, Bernad: Marktforschung mit Online-Panels: State of the Art. In: Planung & Analyse 3/2000, S. 62–67. 23 Über die Qualitätskriterien von OnSite-Umfragen vgl. Batinic, Bernad: Der Online-Forschung fehlen bisher eindeutige Qualitätskriterien. In: <e>MARKET_34/00 vom 25.8.2000 126 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Auf diese Weise lassen sich auch Online-Copytests durchführen. Befragt werden hierbei Online-Nutzer zur Nutzung von redaktionellen und werblichen Inhalten auf der Website, auf der sie kontaktiert werden. Repräsentativ sind solche Online-Umfragen, wenn genügend kontaktierte User an der Umfrage teilnehmen. Bei konventionellen Werbeträgeranalysen sollen 70 Prozent der Stichprobe ausgeschöpft werden.24 Diese Norm wird in der Regel bei Online-Umfragen nicht erreicht. Inwieweit diese Norm auch für Online-Copytests gilt, ist umstritten. Die bisher vermarkteten Online-Copytests wurden jedenfalls nicht beanstandet, wenn der Begriff des Nutzers nicht auf die Definition des durchschnittlichen Nutzers zielt (vgl. o.a. Fußnote). Im Kapitel IV – “Reichweiten sind das A und O“ – wird auf die Relevanz und auf die methodischen Belange des Begriffs „durchschnittlicher Nutzer“ näher eingegangen. Vorweg so viel: Bei der Vermarktung von Werbeträgeruntersuchungen kommt es des Öfteren zu gerichtlichen Auseinandersetzungen und rechtswirksamen Entscheidungen gegen Medienunternehmen, wenn sie die Wettbewerbsrichtlinien nicht einhalten. Häufig sind es die verwendeten Leser-/Seher-/Nutzer-Begriffe, die auf Grund des gewählten Erhebungsverfahrens nicht durch das Wettbewerbsrecht gedeckt sind. In einer nicht bevölkerungsrepräsentativ durchgeführten Studie darf beispielsweise der befragte Besucher eines Online-Angebots nicht als Nutzer bezeichnet werden, weil dies, so die Rechtsprechung, auf den durchschnittlichen Nutzer eines Angebots schließen ließe. Je nach Attraktivität werden Online-Angebote auch von deutschsprachigen Nutzern im Ausland genutzt, die für den hiesigen Werbemarkt irrelevant sind, mithin in Online-Copytests, die für die Vermarktung von Online-Werbung gedacht sind, ausgefiltert werden sollten. Dasselbe gilt für Nutzer, die Webwasher/ Werbeblocker einsetzen. Cross-Ownership-Verhältnisse25 führen dazu, dass Medienunternehmen ihre Werbeträger, die unter einer Marke firmieren (z.B. FOCUS, FOCUS Online, FOCUS TV), als Crossmedia-Kombination vermarkten können. Der Nachweis von Crossmedia-Effekten26 lässt sich sehr gut mit einem kampagnenbegleiten24 Zu der geforderten Ausschöpfungsquote und den Erhebungsbedingungen für Werbeträger-Untersuchungen vgl. ZAW. Rahmenschema für Werbeträger-Analysen. Hrsg.: Zentralverband der deutschen Werbewirtschaft. Bonn (Edition ZAW) 1994. 25 Vgl. Gormley, William T. jr.: The Effects of Newspaper-Television Cross-Ownership on News Homogenity. Capel Hill: University of North Carolina, 1976. Cross-Ownership-Verhältnisse auf lokaler/regionaler Ebene führten in den USA zur Einschränkung publizistischer Vielfalt. 26 Es geht um die Steigerung der Werbewirkung. Der Crossmedia-Effekt ist spezifischer als der Multiplying-Effekt, der in verschiedenen Studien für Mediamix-Kampagnen festgestellt wurde. Vgl. Multiplying. Mediamix. Eine Zusammenstellung internationaler Studien zum MultiplyingEffekt, Hamburg (Axel-Springer Verlag) 1991. Vgl. Handbuch Crossmedia Werbung. Hrsg. v. Verband Deutscher Zeitschriftenverleger. Berlin (VDZ) 2003 127 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de den Online-Copytest ermitteln27, und – optimal – ergänzt durch einen offline durchgeführten, klassischen Copytest erbringen. Herausforderungen für die Online-Forschung Das Dilemma der Markt-/Mediaforschung an der Schwelle der Internet-Ära ist, dass sie mit ihren klassischen Erhebungsverfahren überfordert ist, Sachverhalte aktuell, aussagekräftig und zuverlässig erheben zu können. Das liegt u.a. an der Komplexität der Online-Thematik. Die Internet-Nutzung ist nicht so einfach zu erheben wie die von Zeitungen oder Zeitschriften. Selbst die Fernseh- oder Hörfunknutzung weist nicht den Grad an Komplexität auf, weil ein überschaubares Angebot vorhanden ist. Die hohe Innovationsgeschwindigkeit, nicht nur bei Hardware und Software, sondern auch beim Online-Marketing und bei den Anwendungsmöglichkeiten im Internet, erfordert rasches Reagieren der Marktforschung. Der Umfrageforscher muss nun mit zwei Herausforderungen fertig werden. Einerseits fordert das Marketing rechtzeitig zuverlässige Daten und Potenziale über neue Märkte. Andererseits erschweren Wissensdefizite und Verständigungsprobleme die Erhebung solcher Daten. Denn selbst erfahrene Internet-Nutzer können zu Innovationen kaum hinreichend valide Auskünfte geben.28 Wir leben in einem „ungelernten“ Markt. Das Gros der User kennt die zumeist englisch ausgesprochenen Begriffe oder Marken aus der Internet-Welt nicht. Ein Handicap bei Telefonumfragen. Mithin müssen in Umfragen internetspezifische Sachverhalte erläutert oder umschrieben werden. Fragen verständlich zu stellen, ist eine Wissenschaft für sich. Leider mangelt es in vielen Online-Umfragen häufig an einer gescheiten Fragebogenkonstruktion. Ein Weiteres macht speziell der Online-Forschung zu schaffen: Die Spezies Internet-User weiß um den Wert ihrer persönlichen Daten. Das führt zu sinkender Antwortbereitschaft, wenn freiwillig und ohne Zahlung so genannter Webmiles29 Angaben über die Person, über das Mediennutzungs- und Konsumverhalten gemacht werden sollen. Die totale Vernetzung weckt Ängste bei den Bürgern, dass ihre personenbezogenen Daten missbräuchlich verwendet werden („der 27 Vgl. Yellomiles. Crossmedia Case Study. Chartpräsentation. Hrsg.: Spiegel Gruppe, Hamburg 2003. Vgl. Der Multiplying Effekt: Print plus Online. Crossmedia-Studie auf Basis der TV Movie Future Package, Hamburg (Bauer Media) o.J. (2001) 28 Vgl. Reigber, Dieter (1999): Web Nutzungsmotiv-Studie. Heavy User geben Auskunft. http:// www.interactivemedia.de/home_f/index.html im Menü: Service, Untermenü: Studien, Link: HeavyUser-Studie. Wie muss eine Website gestaltet sein, damit sie der User nutzt? Download: PowerpointDatei, 10.3.2002 29 Bonuspunkte, die bei bestimmten Anbietern eingelöst werden können 128 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de gläserne Surfer“). Die Bereitschaft, selbst an seriösen Umfragen oder Panels teilzunehmen, sinkt. Das Hauptproblem der Online-Forschung bleibt indes die mangelnde Repräsentativität webbasierter Erhebungen. Es genügt nicht, mal eben schnell zigtausend Leute im Netz über einen ständig präsenten Banner einzuladen und zu befragen und mit diesem Ergebnis Wahrheiten verkünden zu wollen. Die große Zahl hilft nicht über die Stichprobenverzerrung hinweg. Und es ist die mangelnde Repräsentativität der Daten, die viele Großunternehmen Deutschlands davon abhält, bislang mehr Geld ihres Marktforschungsbudgets für online durchgeführte Umfragen zu investieren. Und auch viele Medienunternehmen haben die Erfahrung machen müssen, dass Online-Umfragen, die nicht den Mindestkriterien der Markt-/Mediaforschung oder den Wettbewerbsregeln entsprechen, wie sie im ZAW-Rahmenschema festgehalten sind, bei den Mediaagenturen und Werbungtreibenden nur mäßigen Anklang finden. Die Zeiten, als Online-Mediaplaner in den Agenturen sich mit fragwürdigen Studien von Seiteneinsteigern der kommerziellen Umfrageforschung begnügten oder Werbeträger mit gleichsam selbst gestrickten Zahlen über die Nutzerstruktur, erhoben über einen Banner auf der Homepage, aufwarten konnten, sind vorbei. Neue Wege der Online-Reichweitenforschung Online-Marketing und Mediaplanung benötigen repräsentative Reichweitenund Strukturdaten. Sie müssen gemäß den Qualitätsstandards der Marktforschungsorganisationen (ADM30, BMV31) und der Wettbewerbshüter (ZAW32) erhoben werden. Ohne den Einsatz konventioneller Verfahren ist dies zurzeit nicht möglich. Dem Online-Markt stehen zwei Arten repräsentativer Online-Studien zur Verfügung: die Umfrage-Studie, also das persönliche Interview, und die Panel-Analyse, bei denen die Teilnehmer offline rekrutiert und online befragt bzw. elektronisch gemessen werden. Beide Ansätze haben ihre besonderen Vorzüge. Der subjektiven Erinnerungsleistung stehen objektiv gemessene Reichweiten gegenüber. In Umfragen wird die Internet-Nutzung insgesamt erhoben, im Panel nur die des privaten Internet- 30 ADM: Arbeitskreis deutscher Markt- und Sozialforschungsinstitute e.V. 31 BVM: Bundesverband deutscher Marktforscher 32 ZAW: Zentralverband der deutschen Werbewirtschaft. Vgl. Rahmenschema für Werbeträger-Analysen a.a.O. 129 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Zugangs.33 Viele und in die Tiefe gehende Umfragedaten oder die Konzentration auf wenige soziodemografische Zielgruppen stehen der Online-Mediaplanung je nach Bedarf zur Verfügung. Welche Kriterien muss eine Online-Reichweitenstudie erfüllen, damit Marketing und Media-Agenturen einen Nutzen für die Mediaplanung daraus ziehen? Ausgewiesen werden sollten: • die Reichweiten von mindestens 50 der Big Player im OnlineWerbeträgermarkt; • die Soziodemografie, vergleichbar der MA (AG.MA) und ebenso differenziert; • das formale und inhaltliche Online-Nutzungsverhalten; • das Konsumverhalten allgemein und im Internet; • sowie Einstellungen und Verhalten, die als Zielgruppenmerkmale dienen können oder zu Typologien verarbeitet werden können; mithin umfassend genug, um zielgruppenspezifisch und differenziert Rangreihen und Mediapläne zu erstellen. Tabelle 2 33 Working-Panels sind nicht repräsentativ. Vgl. Reigber, Dieter und Frost, Carola: Online-Reichweitenforschung in Deutschland. In: Theobald/Dreyer/Starsetzki (Hrsg.): Online-Marktforschung. Theoretische Grundlagen und praktische Erfahrungen. 2. Auflage. Wiesbaden (Gabler) 2003, S. 126 130 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Im Jahr 1999 versuchen zwei Marktforschungsinstitute (BIK und W3B, Hamburg), eine bevölkerungsrepräsentative Online-Analyse auf dem Markt zu etablieren, die auf Grundlage einer telefonischen Rekrutierungsbefragung und einem nachher auszufüllenden Online-Fragebogen durchgeführt werden soll. Das Verfahren hat Charme und ist seinerzeit aus forschungsökonomischer Sicht eine sinnvolle Lösung. Ziel ist es, Reichweiten von Online-Angeboten zu erheben. Da nicht alle rekrutierten Befragten über einen Internet-Access zu Hause verfügen, den am Arbeitsplatz dafür nicht nutzen dürfen oder andere technische Gründe angeben, wird ihnen als Alternative ein schriftlich auszufüllender Fragebogen angeboten. Die Institute haben nicht damit gerechnet, dass 40 Prozent der rekrutierten Befragten nicht den Online-Fragebogen, sondern den postalisch zusandten Fragebogen ausfüllen wollen. Ein gravierender methodischer Fehler, wie sich später herausstellt. Bei der Datenanalyse müssen beide Institute erkennen, dass die Reichweiten in beiden Erhebungsverfahren deutlich voneinander abweichen, so dass die Auftraggeber der Studie eine Veröffentlichung verhindern.34 Schon seit einigen Jahren ist abzusehen, dass Reichweiten für Online-Angebote und deren Unterseiten weder differenziert in Umfragestudien abgebildet noch umfassend in NetMetrix-Panels ausgewiesen werden können. Auf dem Worldwide Readership Research Symposium 9 in Florenz 1999 haben Reigber/Spohrer die Erhebungsprobleme aufgezeigt und ein Kombinationsmodell aus klassischer Umfrage und technischer Messung auf Basis der IVW-Daten und eines NetMetrix-Panels vorgeschlagen.35 Wenn die Forschungsökonomie es erlaubt, also das Internet eine ausreichende Verbreitung in der Bevölkerung hat und die Kosten durch die Werbeumsätze refinanziert werden können, stünden dem Online-Marketing dadurch ganz neuartige Analysen zur Verfügung. Drei Jahre später wird die Idee von den maßgebenden Online-Vermarktern in Deutschland aufgegriffen und soll im Jahr 2004 umgesetzt werden. Es wird zu einer Art Symbiose mehrerer Erhebungsverfahren kommen, um die Nutzung von Online-Werbeträgerangeboten und deren Unterseiten (Seitenkontingente, Belegungseinheiten) zeitnah darzustellen. Online „getrackte“36 Nut34 Zum Problem der Validität und Reliabilität von Online-Umfragen im Vergleich zu schriftlichen Umfragen vgl. Batinic, Bernad: Datenqualität bei internetbasierten Umfragen. In: Theobald/Dreyer/ Starsetzki a.a.O., S. 144ff. 35 Vgl. Reigber, Dieter und Spohrer, Michael. Research Strategies in Fragmented Media Markets. The Relevance of Practical Research Results Attained from the Teletext and Online Fields for Other Media Sectors. Paper Hold at Worldwide Readership Research Symposium 9, Grand Hotel, Florence (Italy), 8th November 1999. Published in Worldwide Readership Research Symposium 9. Session Papers. Ed. BMRB International, London & Ipsos-RSL, Harrow: November 1999. pp 209–216. 36 Unter Zuhilfenahme eines permanenten Cookie auf der Festplatte des Client (Computer) 131 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de zungsdaten werden evaluiert durch Online-Befragungen und gewichtet mittels einer Referenzumfrage, die konventionell per CATI oder CAPI durchgeführt wird. Hierbei wird forscherisches Neuland betreten. Deshalb wird in den Gremien (AGOF37, IVW38, InfOnline, AG.MA39) um Methoden und Konventionen gekämpft, um letztlich das Zertifikat der AG.MA zu erhalten. So weit ein erster Überblick darüber, was sich in der Online-Forschung bis heute getan hat und was geplant ist. Kehren wir zurück zu den Anfängen der Online-Forschung und berichten über die Ergebnisse, die in den verschiedenen Stadien des Forschungsprozesses publiziert wurden. Dabei werden Mittel und Wege beschrieben, die zu mediaplanungsrelevanten Daten führen. II. Die Anfänge der Online-Forschung Die Online-Nutzung wurde bevölkerungsrepräsentativ erstmals 1995 erhoben und in der „Typologie der Wünsche“40, der Markt-/Media-Studie des Verlagshauses Burda Medien, ausgewiesen. Damals wurde die Nutzung von Internet und datex j/BTX noch getrennt abgefragt. Die ersten abonnierbaren Dienste (America Online, Europe Online, CompuServe etc.) beginnen den deutschen Markt zu erobern. Gut eine halbe Millionen Menschen – 0,8 Prozent der Bevölkerung – zählen im weitesten Sinne zu Online-Nutzern. Ein Jahr später, 1996, ermittelt die „TdWI’96/97 Trend“ 2,50 Millionen Online/Internet-Nutzer. Damit erreicht das neue Medium 4,0 Prozent der deutschen Bevölkerung. Der Purist unter den Markt-/Mediaforschern würde sagen: 4 Prozent der Deutschen haben schon mal Kontakt mit diesem Medium gehabt. 37 AGOF: Arbeitsgemeinschaft Online-Forschung. Gegründet 2002. 38 IVW: Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern e.V., zertifiziert die Nutzungsdaten (Visits, Page-Impressions) für Online-Werbeträger seit 1997. 39 AG.MA: Arbeitsgemeinschaft Media Analyse. 40 Typologie der Wünsche 95 (TdW‘95). Hrsg. v. TdW Intermedia GmbH & Co.KG, Frankfurt 1995 132 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Quelle: TdW Intermedia '96/'97 II Tabelle 3 Online-/Internet-Nutzung in Deutschland 1996 MediMach-Zählung 20.8.03 Gesamtbevölkerung Fallz. (gew.) Gesamt Nutzer eines Online-Dienstes oder des Internets Online-Nutzer, die an mindestens einem Tag pro Woche Online-Dienste oder das Internet nutzen Online-Dienste, die beruflich oder privat genutzt werden AOL CompuServe Europe Online Internet MSN T-Online/BTX Sonstige Netze Online-Dienste, die beruflich oder privat genutzt werden Nutzer von proprietären Online-Diensten Nutzer des Internets Nutzer von proprietären Online-Diensten, die das Internet nicht nutzen Nutzer von proprietären Online-Diensten, die auch das Internet nutzen Internet-Nutzer, die keinen proprietären Online-Dienst nutzen Online-Dienste, die beruflich oder privat an mindestens einem Tag pro Woche genutzt werden Nutzer von proprietären Online-Diensten Nutzer des Internets Nutzer von proprietären Online-Diensten, die das Internet nicht nutzen Nutzer von proprietären Online-Diensten, die auch das Internet nutzen Internet-Nutzer, die keinen proprietären Online-Dienst nutzen % Mio. Nutzer eines OnlineDienstes oder des Internets Fallz. (gew.) % Mio. Online-Nutzer, die an mindestens einem Tag pro Woche Online-Dienste oder das Internet nutzen Fallz. (gew.) % Mio. 10.231 100,0 63,12 405 100,0 2,50 286 100,0 1,76 405 4,0 2,50 405 100,0 2,50 286 100,0 1,76 286 2,8 1,76 286 70,6 1,76 286 100,0 1,76 26 66 25 166 75 161 99 0,3 0,6 0,2 1,6 0,7 1,6 1,0 0,16 0,41 0,15 1,02 0,46 0,99 0,61 26 66 25 166 75 161 99 6,4 16,3 6,1 41,0 18,5 39,7 24,5 0,16 0,41 0,15 1,02 0,46 0,99 0,61 17 48 19 146 50 135 34 6,1 16,7 6,5 51,0 17,3 47,1 11,9 0,11 0,29 0,12 0,90 0,31 0,83 0,21 328 166 3,2 1,6 2,02 1,02 328 166 81,1 41,0 2,02 1,02 218 146 76,4 51,0 1,35 0,90 239 2,3 1,47 239 59,0 1,47 140 49,0 0,86 89 0,9 0,55 89 22,1 0,55 78 27,4 0,48 77 0,7 0,47 77 18,9 0,47 67 23,6 0,42 218 146 2,1 1,4 1,35 0,90 218 146 54,0 36,0 1,35 0,90 218 146 76,4 51,0 1,35 0,90 140 1,4 0,86 140 34,6 0,86 140 49,0 0,86 78 0,8 0,48 78 19,3 0,48 78 27,4 0,48 67 0,7 0,42 67 16,7 0,42 67 23,6 0,42 Tabelle 3 Schaut man sich die Nutzerdaten genauer an, dann sind es 1,76 Millionen Bundesbürger (2,8 Prozent der Bevölkerung), die mindestens einmal pro Woche online sind. Und vorrangig werden proprietäre Online-Dienste, d.h. Access-Provider mit eigenständiger, nicht-WWW-basierter Technologie und redaktionellem Angebot genutzt. Weniger wird das Internet selbst mit seinen zumeist frei zugänglichen Angeboten aufgesucht. Vielen Nutzern des neuen Mediums sind Begriffe wie Internet oder „World Wide Web“ noch nicht geläufig, und sie wissen nicht, dass sie über ihren abonnierten Provider Angebote im Internet nutzen. Nur die wenigen „Early Adopter“ bzw. „Internet-Freaks“ haben genügend Kenntnisse über die Internet-Technologie und können darüber Auskunft geben. Insofern ist es nicht sinnvoll, in Bevölkerungsumfragen zu (technischen) Innovationen bis ins Detail gehende Fragen zu stellen, ohne hinreichende Erläuterungen anzubieten.41 41 Vgl. Reigber, Dieter (1999): Web Nutzungsmotiv-Studie. Heavy User geben Auskunft. http:// www.interactivemedia.de/home_f/index.html im Menü: Service, Untermenü: Studien, Link: HeavyUser-Studie. Wie muss eine Website gestaltet sein, damit sie der User nutzt? Download: PowerpointDatei, 10.3.2002 133 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Reichweiten einzelner Online-Anbieter sind 1995/96 weniger von Interesse; die Reichweite der Mediengattung schon eher. Einige namhafte Institute und Analysten sagen auf Grund von Umfragen unter Experten einen wirtschaftlichen Boom für die Internet-Branche voraus. Was wir von Prognosen zu halten haben, wissen wir heute – acht Jahre später – nur zu gut. Entwicklung und Einführung neuer Kommunikationstechniken werden zumeist aus der Perspektive der Technik, des Marketings und der Medien diskutiert. Es geht also um das technisch Machbare, es geht um ökonomische Vorteile, und es geht um neue Geschäftsfelder in der Medienindustrie. Der Nutzer, der Anwender neuer Kommunikationstechniken spielt dabei allenfalls am Rande eine Rolle. Meist zieht man Schlüsse aus dem Verhalten der „Early Adopter“. Man spricht von Potenzialen und wie die „kritische Masse“42 schnell zu erzielen sei. Weniger dagegen wird aus der Perspektive der Nutzer argumentiert. Soziale und psychologische Belange sind selten Thema solcher Expertenrunden. Drei bevölkerungsrepräsentative Markt-/Media-Untersuchungen: „Communication Networks“ (1996), „Online – Offline“ (1997) und die „ACTA’97“ haben sich dieses „Karrierethemas“43 angenommen. Trotz der unterschiedlichen Untersuchungsansätze kommen die drei Studien zu ähnlichen Ergebnissen. Die FOCUS-Studie „Communication Networks“44, durchgeführt August/ September 1995, liefert einen prognostischen Ansatz, wobei mit den Methoden der psychologischen Diagnostik45 bevölkerungsrepräsentative Daten zur Akzeptanz, Erwartung und Zukunftsfähigkeit von modernen Anwendungsbereichen digitaler Technologie erhoben wurden. Mithilfe der Szenario-Technik (Bildvorlagen mit Erläuterungen) wurden 15 zukünftig-alltägliche als auch gegenwärtigkonventionelle Kommunikationssituationen gezeigt und gefragt, inwieweit eine dargestellte Situation angenehme oder unangenehme Gefühle (6er-Skala) hervorruft und ob die Kommunikationstechnik gegenwärtig oder zukünftig genutzt werden würde. 42 „Wie viele Menschen müssen (welche kritische Masse muss) ein neues Verhalten, ein neues Produkt oder eine neue Einstellung übernehmen, damit auch die Allgemeinheit sie akzeptiert?“ Vgl. Aburdene, Patricia & Naisbitt, John: Megatrends: Frauen, Düsseldorf (ECON) 1993, S. 13ff. 43 „Ein Thema wie... ist nicht ein Eigenprodukt der Massenmedien. Es wird von ihnen aufgegriffen, dann aber in einer Weise behandelt und einer Themenkarriere ausgesetzt, die ... sich aus der Kommunikation nicht erklären lässt.“ Vgl. Luhmann, Niklas: Die Realität der Massenmedien. Opladen (Westdeutscher Verlag) 1995, S. 28. 44 Communication Networks. Hrsg. v. FOCUS Magazin Verlag, München 1996. 45 Zum Einsatz psychologischer Diagnostik in empirischen Breitenuntersuchungen vgl. Ring, Erp: Signale der Gesellschaft. Psychologische Diagnostik in der Umfrageforschung. Göttingen, Stuttgart: Verlag für Angewandte Psychologie (Hogrefe), 1992. 134 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Abbildung 2 Szenario 1 Banking Abbildung 3 Szenario 3 Cyberspace Von den Szenarien mit moderner Kommunikationstechnologie erhielt die Option der beruflichen Nutzung eines Computers46 die größte Sympathie. Autofahren mithilfe des Navigationscomputers gilt 1995 noch als Vision. Aber 38 Prozent der Bundesbürger stufen die Nutzungsmöglichkeit als sympathische Kommunikationstechnik ein. 28 Prozent finden es attraktiv, Online-Dienste nutzen zu können, und 19 Prozent sind begeistert vom Szenario eines „Global Village“ im Internet, also „Gesprächspartner in der ganzen Welt zu finden zum Austausch von Informationen“. Heute nennt man so etwas „Chatten“ oder an „Newsgroups“ teilnehmen. 37 Prozent sprechen sich eher gegen diese weltweite Kommunikation via Internet aus. 27 Prozent erkennen die Vorteile im Online-Shopping, obwohl E-Commerce B-to-C noch so gut wie unbekannt ist. Schon ein Drittel sieht für sich den positiven Nutzen von Online-Banking, das heute zu den am meisten genutzten Funktionen im Internet zählt. Der Cyberspace, also die virtuelle Welt mit Datenhelm und -handschuh gleichsam hautnah zu erleben, wird eher beargwöhnt. Für 13 Prozent der 14- bis 64-jährigen Bundesbürger ist dies im Jahr 1995 ein positives Szenario der Zukunft; für über die Hälfte dagegen ein negatives. Auch die totale Hingabe an die modernen Kommunikationstechniken, wie im Szenario „Abtauchen“ präsentiert, wird eher kritisch betrachtet. Der Bücherwurm 46 Szenario „PC im Job“ Stufe 1+2 einer 6er-Skala = bereitet angenehmes Gefühl: 40,4 Prozent 135 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de ist gesellschaftlich akzeptiert; der Computer-Freak dagegen nicht. Das „FlowErlebnis“47 bei der Arbeit am Computer hat in der Gesellschaft nicht denselben Stellenwert wie bei anderen schöpferischen Tätigkeiten. Spätere Untersuchungen48 werden zeigen, dass die Tätigkeit am Computer als Herausforderung gesehen wird, die, mit den eigenen Fähigkeiten abgestimmt, die Komplexität unseres Gehirns erhöht. Online-/Internet-Nutzer sind prädestiniert, „Flow“ zu erleben. Quelle: Communication Networks I (1996); Befragungszeitraum: August/September 1995 14 bis 64jährige Bevölkerung Tabelle 4 Kommunikationssituationen /-szenarien Die dargestellte Situation ruft hervor ... angenehme Gefühle (Stufe 1+2) % Gesamt (n = 8.149) Mio. unangenehme Gefühle (Stufe 5+6) % Mio. 100,0 50,95 100,0 50,95 PC im Job: Im heutigen Berufsleben gehört der Computer wie selbstverständlich dazu. ... 40,4 20,60 20,6 10,50 Navigation: Mein Navigationscomputer im Auto enthält alle Stadtpläne ..., so dass ich mich ... zu jeder gewünschten Adresse lotsen lassen kann. 38,4 19,59 24,7 12,61 Daily Help: Die neuen Technologien sind nützliche Hilfen im Alltag, wie z.B. Mobiltelefon, Fax, ..., mit deren Hilfe ich einfacher und schneller kommunizieren kann. 37,7 19,21 17,4 8,86 Banking: Die meisten Bankgeschäfte kann ich außerhalb der Schalterstunden mit dem Telefon oder dem PC bewältigen.... 33,9 17,26 25,2 12,83 Geselligkeit: ... sich mit Freunden zu geselligen Spielen am Computer zu treffen, gemeinsam in neue Programme einzusteigen und knifflige Aufgaben zu lösen. 31,2 15,92 31,0 15,81 Personal Assistant: Der PC ist der persönliche Sekretär. Er speichert alle wichtigen Daten, erinnert an Termine und übernimmt zukünftig sogar kleinere Routinejobs. 28,9 14,73 25,7 13,09 Moderne Bibliothek: Aus Online-Diensten kann man sich mit dem PC Informationen und Daten aus aller Welt beschaffen. So wird der PC zur Bibliothek. 27,5 14,02 25,6 13,04 Entertainment: Über Glasfaserkabel, Computer .... kann man sich ein breites Unterhaltungsangebot ... ins Haus holen. ... 26,9 13,72 30,5 15,53 Home Shopping: ... mit dem PC rund um die Uhr einkaufen. ... über Urlaubsangebote informieren und direkt buchen, Kleider, Bücher und andere Waren bestellen. 26,7 13,60 33,5 17,05 Multimedia im Job: Im Büro über PC weltweit Datenbanken nutzen oder über Videokonferenzschaltung mit Geschäftspartnern in Kontakt treten .... 24,8 12,65 28,9 14,74 Global Village: Über Computer Gesprächspartner aus der ganzen Welt finden zur Unterhaltung und zum Austausch von Informationen aus den unterschiedlichsten Bereichen. 19,3 9,83 36,6 18,64 Abtauchen: An einem PC kann man so richtig abtauchen, nur mit sich selbst beschäftigt sein, ohne jemand zu vermissen. 14,7 7,51 46,2 23,55 Cyberspace: Mit Cyberspace die Welten virtuell erleben, die sonst nicht zugänglich sind oder es noch nicht gibt. ... Helm mit eingebautem Bildschirm und einem Datenhandschuh Dinge anfassen, durch Räume gehen, spielen ... 13,1 6,69 54,4 27,72 Tabelle 4 47 Csikszentmihalyi, Mihaly: Das Flow-Erlebnis. Jenseits von Angst und Langeweile: im Tun aufgehen. Stuttgart (Klett-Cotta) 1991. (Originalausgabe: Beyond Boredom and Anxiety – the Experience of Play in Work and Games. San Francisco, Washington, London (Jossey-Bass-Publishers) 1975.) 48 Vgl. Nowak, Thomas P., Hoffman, Donna L.: Measuring the Flow Construct in Online Environments: A Structural Modeling Approach. Project 2000, Owen Graduate School of Management, Vanderbilt University, Yiu-Fai Yung, L.L. Thurstone Psychometric Laboratory, UNC Chapel Hill, May 1998. Vgl. Wenzel, Olaf: Webdesign, Informationssuche und Flow. Nutzerverhalten auf unterschiedlich strukturierten Websites. Reihe: Electronic Commerce; 6. Lohmar, Köln (Josef Eul Verlag) 2001. Vgl. auch http://www.abseits.de/interaktiv.htm (28.8.2003). 136 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Der innovative Szenario-Ansatz von „Communication Networks“ gibt den Strategen der Internet-Branche deutliche Hinweise zur Akzeptanz zukünftig relevanter Techniken und – trotz hoher Innovationsgeschwindigkeit – auch zu den Zeiträumen, bis die „kritische Masse“ erreicht ist. Auch aus den beiden anderen, 1997 veröffentlichten Markt-/Media-Analysen „Online – Offline“ und „ACTA‘97“ lassen sich Ergebnisse zur Bekanntheit und Nutzungsbereitschaft einzelner moderner Kommunikationstechniken für Prognosen heranziehen. In der Spiegel-Studie „Online – Offline“49, durchgeführt Mai/Juni1996, wird warnend gefragt, ob die Verbraucher die Entwicklung in die neue Medienwelt mittragen werden. Die Umfrageergebnisse über die Nutzungsbereitschaft moderner Kommunikationstechniken sorgen für Dämpfer und legen die Hypothese nahe, dass sich die Gewohnheiten der Konsumenten längst nicht so schnell ändern wie die Medientechnologie.50 Ein weiterer wichtiger Bestandteil der Studie ist die Identifizierung und Beschreibung von Nutzertypen im Markt der Informations- und Kommunikationstechnologie. In der befragten Grundgesamtheit der 18- bis 64-Jährigen voll Berufstätigen oder in Ausbildung Befindlichen51 stehen den „Versierten“ (20 %), „Begeisterten“ (15 %) und „Pragmatikern“ (22 %) fast zur Hälfte zwei Gruppen gegenüber, die zum Typ „Desinteressierte“ (16 %) oder „Ängstliche“ (27 %) gehören. Aus diesen Daten hätten Strategen ablesen können, dass selbst in der hochaffinen Zielgruppe (vgl. Fußnote) Vorbehalte bestehen. Andererseits gebe es zu Pessimismus keinen Anlass, so die Kommentatorin der Studie. Die Online-Dienste verzeichnen wachsende Nutzerzahlen. 13 Prozent der Zielgruppe nutzent beruflich oder privat einen Online-Dienst. In der vom Institut für Demoskopie Allensbach durchgeführten „Allensbacher Computer- und Telekommunikationsanalyse“ (ACTA‘97)52, Befragungszeitraum Februar bis August 1997, werden für die 14- bis 54-jährige Bevölkerung (40,10 Mio.) gut 10 Prozent Online-/Internet-Nutzer (3,90 Mio.) ausgewiesen. Auch hier werden dem aufmerksamen Internet-Analysten und Marketingstrategen eine Vielzahl Daten zum Kompetenz- und Interessenshorizont angeboten, die, wenn nicht durch die „rosarote Brille“ betrachtet, für eine vorsichtig abgestimmte Vorgehensweise im Marketing hätten führen müssen. 49 Online – Offline. Hrsg.: Spiegel-Verlag 1997. 50 Vgl. Holzhauer, Brigitte: Wahrnehmung und Akzeptanz der neuen I- und K-Technologien. In: Online – Offline. Hrsg. v. Spiegel-Verlag, Hamburg 1997, S. 55–69. 51 Grundgesamtheit der Studie „Online–Offline“ (1997) sind die bundesdeutsche Bevölkerung im Alter von 18 bis 64 Jahre, die voll berufstätig sind oder sich in Ausbildung befinden. 52 Allensbacher Computer- und Telekommunikations-Analyse, ACTA‘97. Hrsg. v. Institut für Demoskopie Allensbach 1997. 137 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de So weit zu den Anfängen bevölkerungsrepräsentativer Online-Forschung in Deutschland. Aus heutiger Sicht mögen solche Ergebnisse eher von historischem Interesse sein, aber sie zeigen uns auch, dass wir in einer Gesellschaft mit hoher Innovationsgeschwindigkeit leben. Und dass sich mit den Mitteln der empirischen Sozialforschung sehr wohl abschätzen lässt, ob sich Techniken oder in unserem Fall kommunikative Anwendungen oder Situationen durchsetzen werden. Auch wenn die Daten für die Mediaplaner in den Agenturen keine hinreichenden Aussagen über die Reichweite des Online-Mediums und seiner Angebote machen, so sind die ausgewiesenen Potenziale für die Werbebranche wichtig gewesen. Profitiert haben davon anfangs die klassischen Medien. Alle genannten Studien weisen Reichweiten für Zeitschriften, Zeitungen und TV-Sender aus. Die Media-Agenturen können in Rangreihen „online-affine“ Titel/Sender ermitteln und mit Werbekampagnen belegen. Werbung online zu planen, gründet sich – übrigens bis heute – auf die agentureigenen „Learnings“. Im Gegensatz zur „Typologie der Wünsche“, die als Markt-/Media-Analyse fungiert und vorrangig die Printmediennutzung, viele Kernzielgruppen und Typologien ausweist und eine Vielzahl von Märkten bedient, wobei die Online-Nutzung eben nur eines unter vielen Themen ist, sind „Communication Networks“, „ACTA“ und „Online – Offline“ auf den Multimedia-Bereich spezialisiert. Die erste monothematisch auf die Online-Branche bezogene Untersuchung53, die bevölkerungsrepräsentativ mit hinreichend hoher Fallzahl (Stichprobe: 10 341 Personen) angelegt ist, wurde von November 1997 bis Januar 1998 durchgeführt: der GfK Online-Monitor. Die Erhebung wird künftig zweimal jährlich durchgeführt und in den folgenden Jahren – bis zu seiner Ablösung 2001 durch den Online Reichweiten-Monitor (ORM)54 – die Währung im OnlineMarkt sein. Der GfK Online-Monitor wird telefonisch (CATI) erhoben, wie auch (bis heute) die Online-Studie @facts vom Institut Forsa im Auftrag von SevenOne Interactive. Das hat vor allem forschungsökonomische Gründe. Denn mit Telefonumfragen lassen sich relativ schnell große Stichproben bewältigen. Ihre Eignung für die Erhebung von Reichweiten ist dagegen umstritten. Dieser Umstand führt im 53 Die eigentlich erste, bereits im März/April 1997 durchgeführte und im September publizierte ARDOnline-Studie hat mit einer Stichprobe von 1003 Befragten nur eine begrenzte Aussagekraft für den Online-Markt. 54 Hrsg. v. Arbeitsgemeinschaft Internet Research e.V. AGIREV. Die Auftraggeber des GfK OnlineMonitors haben sich in einem Verein zusammengeschlossen, um mit nahezu gleichem Fragenprogramm und Online-Nutzer-Definition die Untersuchung mit dem Erhebungsverfahren CAPI (Computer Assisted Personal Interviews) fortzuführen. 138 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Jahr 2001 dazu, den Online Reichweiten-Monitor im CAPI-Verfahren (Face-toface-Interview mit Fragebogen im Notebook) durchzuführen. Trend: Online-/Internet-Nutzung 1997 bis 2001 Reichweitenentwicklung/Zuwachsraten seit Beginn des GfK Online-Monitors 14 - 59 Jahre +34% 60 - 69 Jahre 46 % +14% +43% 34 % +28% +42% 30 % 25 % 19 % +36% 14 % 10 % 4,4 Mio 6,0 Mio 8,4 Mio 10,8 Mio 15,9 Mio 18,0 Mio 24,2 Mio 1997/98 Mitte 1998 1998/99 Mitte 1999 1999/2000 Mitte 2000 2000/2001 Quelle: GfK Online-Monitor 1. bis 7. Welle, 1997/98 bis 2000/2001, deutschsprachige Bevölkerung in Privathaushalten mit Telefonbesitz Abbildung 4 III. Definition des Online-Nutzers Die in der Grafik aufgezeigte Reichweitenentwicklung schließt alle Personen ein, die Online-Dienste oder das Internet gelegentlich nutzen. Und damit stoßen wir schon auf das erste Problem der Online-Forschung der ersten Jahre. Wie wird der Online-/Internet-Nutzer definiert? Jedes Marktforschungsinstitut hat da so seine eigenen Vorstellungen. Deshalb weichen die Potenziale – abgesehen vom Einfluss des eingesetzten Erhebungsverfahrens55 und der Personengewichtung56 – deutlich von einander ab. 55 Beim Erhebungsverfahren CATI (Computer Assisted Telephone Interviews) werden in der Stichprobe die jüngeren, gebildeteren und mobilen Menschen „besser“ ausgeschöpft als mit „paper and pencil“ (mündlich persönlich) durchgeführten Studien. Vgl. Mosmann, Helmut: PAPI – CAPI – CATI: Ambivalenter technischer Fortschritt in der Datenerhebung. In: planung & analyse 1/99, S. 50–55 56 „Wenn, wie im Falle der CATI-Stichprobe nachweibar, der Auswahleffekt auch bei soziodemografischen Merkmalen ... zu Abweichungen von der Grundgesamtheit führt, kann dies durch Gewichtung formal ausgeglichen werden. Die dahinter stehenden ursächlichen psychostrukturellen Stichprobendefizite werden damit aber nicht behoben.“ Mosmann, Helmut: a.a.O., S. 50. Zudem erzeugen unterschiedliche Gewichtungsvorgaben, ob Größe der Grundgesamtheit oder zu gewichtende Markmale, unterschiedliche Potenziale. Nach Konvention werden Personen befragt, die in Privathaushalten leben, und nicht die gesamte Bevölkerung (z.B. inklusive Heiminsassen). Telefonumfragen sollten den Telefonbesitz (Festnetz) im Haushalt als Gewichtungsmerkmal einbeziehen und auch den Bildungsabschluss. 139 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Tabelle 5 Die Resonanz in der Fachpresse ist dementsprechend. „Mehr Fragen als Antworten“, titelt W&V 16/98. „Zwar beleuchten viele Studien die Netzgemeinde. Aber alle haben mit methodischen Schwierigkeiten zu kämpfen“, heißt es weiter. Der New Media Report 9/98 beschreibt die Situation als „Statistik und Wahrheit“, und gibt Hinweise, worauf die Entscheider beim Umgang mit Statistiken achten sollen. Und für Media & Marketing 7/98 fehlen noch immer wichtige Nutzerdaten. Die Daten überzeugen nicht und werden als wenig glaubwürdig geziehen. In den meisten Untersuchungen wird ohne Einleitung und ganz pauschal nach der Online- oder Internet-Nutzung gefragt, und zudem oft ohne zeitliche Eingrenzung. Typische Eingangsfragestellungen sind: „Nutzen Sie das Internet?“ „Nutzen Sie das Internet oder Online-Dienste?“ „Nutzen Sie das Internet oder Online-Dienst zumindest gelegentlich?“ „Haben Sie das Internet oder Online-Dienste in den letzten 12 Monaten genutzt?“ „Nutzen Sie das World Wide Web? Verstehen die Befragten überhaupt, was mit den Begriffen Online-Dienst, Internet oder World Wide Web gemeint ist? Und kommt es da nicht zu Fehleinschätzungen oder auch zu Missverständnissen? Online-Nutzung ist in diesen Fällen ein weites Feld. Denn in die Zielgruppendefinition werden der 14-Jährige, der mal eben im 140 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Kaufhaus den kostenfreien Internet-Access ausprobiert, einbezogen, als auch die Sekretärin, die im unternehmenseigenen Intranet recherchiert, oder der Btx’ler, der ausschließlich Online-Banking betreibt. Techniken werden in der Regel nicht zuvor erläutert, weil dies im Interview, bedingt durch die Interviewsituation (z.B. in Telefonumfragen), zu viel Zeit in Anspruch nimmt und den Interviewverlauf hemmt. Es bieten sich verschiedene Wege an, Befragte in die Situation einer solchen Frage einzuführen. Da wird zu Beginn des Interviews nach der Bekanntheit von vielerlei Begriffen aus der modernen Kommunikationstechnik gefragt (ACTA, Online – Offline). Oder es werden Fragen zum Computer vorangestellt, wobei die Nichtnutzer wegfiltert werden. Der GfK Online-Monitor wählt ein zweistufiges Filtermodell zur Ermittlung des Online-/Internet-Nutzers. Zuerst wird die Zugangsmöglichkeit für verschiedene Standorte (zu Hause, am Arbeitsplatz oder Ausbildungsplatz, unterwegs usw.) erfragt57 und dann für jeden infrage kommenden Internet-Zugang die zumindest gelegentliche Nutzung58 ermittelt. Die Fragestellungen lauten: „Haben Sie persönlich, zu Hause oder außer Haus, die Möglichkeit, in das Internet zu gehen oder einen Online-Dienst zu nutzen? Ich lese Ihnen jetzt verschiedene Möglichkeiten vor, und Sie sagen mir bitte, ob Sie persönlich diese Möglichkeiten nutzen können, um in das Internet zu gehen oder einen OnlineDienst zu nutzen.“ Antwortvorgaben: zu Hause; am Arbeits-/beruflichen Ausbildungsplatz; in der Schule bzw. an der Universität; an öffentlichen Orten, z.B. im Internetcafé oder an Multimedia-Terminals; unterwegs, z.B. über ein WAP-Handy oder über ein Handy in Verbindung mit einem Laptop oder Notebook; bei Freunden oder Verwandten. „Nutzen Sie persönlich die Möglichkeit, ... (am jeweiligen Ort) ins Internet zu gehen, zumindest gelegentlich? Ab der 2. Welle im ORM: „Haben Sie persönlich in den letzten zwölf Monaten ... (am jeweiligen Ort) das Internet oder einen Online-Dienst genutzt?“ Dieser „weichere“ Einstieg führt nach Auffassung der Medienforscher zu geringerer sozialer Erwünschtheit und damit zu realistischeren Ergebnissen. Durch das Filtermodell wird der Online-Nutzer im GfK-Online-Monitor und später 57 Fragestellung: „Haben Sie persönlich zu Hause oder außer Haus (am Arbeitsplatz ...) die Möglichkeit, in das Internet zu gehen oder Online-Dienste zu nutzen?“ 58 Fragestellung: „Nutzen Sie die Möglichkeit ... (jeweiliger Ort) ins Internet zu gehen oder OnlineDienste zu nutzen, zumindest gelegentlich?“ 141 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de auch im Online Reichweiten-Monitor (ORM) konkreter und strenger definiert als in anderen Studien. Anschließend wird die letzte Online-/Internet-Sitzung vergleichbar dem in der Printmedienforschung bewährten Zeitfiltermodell ermittelt.59 Es entstammt der Media-Analyse (MA) und ist im Arbeitskreis Online der AG.MA als Grundlage für die Bestimmung von Reichweiten empfohlen worden. Das MA-Modell wird auch von der Online-Studie @facts60 eingesetzt. In ähnlicher Form wird es von Communication Networks (CN) und der Typologie der Wünsche (TdWI) verwendet, wobei hier der Weiteste Online-Nutzerkreis auf die letzten 14 Tage eingegrenzt ist. Das Institut für Demoskopie Allensbach wählt für die ACTA das Filtermodell der AWA, das für den Weitesten Nutzerkreis keine zeitliche Eingrenzung vorsieht. Abbildung 5 59 Das MA-Modell wird analog auch für die Ermittlung der Nutzung von Online-Angeboten (Domains) eingesetzt. Das Modell bildet die Grundlage für die Darstellung von Reichweiten, die zu Nutzungswahrscheinlichkeiten (p-Werte) verrechnet werden. 60 ohne dass die Daten zu Nutzungswahrscheinlichkeiten verrechnet und publiziert werden. 142 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Seit dem Jahr 2000 weisen einige Studien die Reichweite für den „Online-Nutzer pro Tag“ aus. Auf Grund der unterschiedlichen Erhebungs- und Gewichtungsverfahren, der unterschiedlichen Definition des Online-Nutzers und des gewählten Weitesten Nutzerkreises unterscheiden sich die Anteile und die Hochrechnung für die Online-Nutzung. Abbildung 6 Zugegeben, es ist unbefriedigend, wenn unterschiedliche Potenziale für den „Online-Nutzer pro Tag“ veröffentlicht werden. Bis heute haben sich die Herausgeber der Studien nicht auf Konventionen einigen können. Da mag man keiner Studie Glauben schenken, wie im Jahre 1998, als die ersten bevölkerungsrepräsentativen Daten veröffentlich wurden. Und für die Mediaplanung sind das keine idealen Voraussetzungen. Welche Zahlen stimmen denn nun? Welche Studie soll in welchem Fall genutzt werden? In vielen Media-Agenturen hat der GfK Online-Monitor und später der Online Reichweiten-Monitor den Charakter einer Währung erhalten. Das liegt nicht nur an der Untersuchungsanlage, sondern auch an der freien Zugänglichkeit zu den Daten61. 61 Auf www.agirev.de sowie www.media.spiegel.de können Codeplan und Fragebogen eingesehen sowie mit einem Zählprogramm kostenfrei Auswertungen durchgeführt werden. Die fallzahlgrößte kontinuierlich durchgeführte Studie @facts (10 000 Interviews pro Monat) von SevenOne Interactive steht nur Lizenznehmern zur Verfügung. Auch der Fragebogen und die Datenlage sind öffentlich nicht zugänglich. 143 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Jede der o.g. Studien erfüllt eine andere Funktion und sollte nicht nur auf die Ergebnisse zur Online-Nutzung reduziert werden. Im Vordergrund stehen in ACTA, CN und TdWI Daten über Märkte und andere Mediengattungen. IV. Reichweiten sind das A und O In der Werbeträgerforschung bezieht sich der Begriff Reichweite auf den durchschnittlichen Nutzer eines Angebots. Das muss im Falle des „Nutzers pro Woche“ nicht unbedingt nur der Befragte sein, der angibt, in diesem Zeitraum ein Angebot genutzt zu haben. Sondern es gehört auch der Online-User dazu, der angibt, in der letzten Woche das Angebot nicht genutzt zu haben, aber ansonsten regelmäßig „online geht“. Deshalb werden Nutzeranteile zu Nutzungswahrscheinlichkeiten (p-Werten) verrechnet. Der Wert entsteht aus der rechnerischen Gewichtung der Nutzer im Weitesten Online-Nutzerkreis (WNK) in den einzelnen Frequenzklassen (Nutzungshäufigkeit pro Woche). Dabei wird ein Segmentationsverfahren eingesetzt, um soziodemografische Verzerrungen zu vermeiden. Aus dem Anteil der „Nutzer in der letzten Woche“ entsteht so der „Nutzer pro Woche“. Die Nutzungswahrscheinlichkeit drückt aus, mit welcher Wahrscheinlichkeit ein Online-Nutzer in diesem Nutzungsintervall das Internet oder OnlineDienste bzw. ein Online-Werbeträgerangebot besucht hat. Die Verrechnung zur Nutzungswahrscheinlichkeit optimiert die Abbildung des Nutzungsverhaltens. Nutzungswahrscheinlichkeiten sind konstitutiv für die Mediaplanung. Nutzeranteile oder Hochrechnungen, die nicht als Nutzungswahrscheinlichkeit verarbeitet worden sind, haben für die Mediaplanung nicht denselben Stellenwert. Erst seit wenigen Jahren weisen einige Studien auch Reichweiten für OnlineAngebote aus (vgl. Tabelle 6). Die Ausweisungskriterien für Printtitel in der Media-Analyse (MA) sind: Mindestens 351 ungewichtete Fälle im Weitesten Nutzerkreis und zusätzlich mindestens 80 Fälle im letzten Erscheinungsintervall. Hätte im Jahr 1997 auf der Grundlage der MA-Regeln eine Studie OnlineAngebote auf Basis „Nutzer pro Woche“ ausweisen wollen, dann hätten sich z.B. www.spiegel.de oder www.bild.de nur qualifizieren können, wenn die Stichprobe 20 000 Interviews umfasste. Wollte man www.zeit.de abbilden, wären 50 000 Interviews durchzuführen. Allenfalls die großen Access-Provider und einige Suchmaschinen haben sich qualifizieren können. Es ist seinerzeit forschungsökonomisch nicht sinnvoll gewesen, eine solche Studie durchzuführen. Die ACTA 1998 veröffentlicht Reichweiten auf Basis „Nutzer pro Woche“ für 20 Online-Angebote und sorgt damit für einigen Wirbel. Die Ausweisung ist nur möglich auf Grund des zeitlich nicht begrenzten Weitesten Nutzerkreises. Kritisiert werden die geringen Fallzahlen der Reichweiten vieler Online-Angebote 144 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de (z.B. Bild Online n = 37 Fälle oder Stern Online n = 28 Fälle) und dass die Reichweiten von Online-Angeboten der Computer- und Wirtschaftspresse nicht mit den Daten der IVW Online-Statistik korrespondieren. Da stehen deutlich mehr Nutzer wenigen Besuchen (Visits) gegenüber. Ganz krass ist das Beispiel WirtschaftsWoche Internet (www.wiwo.de). Vergleicht man für WirtschaftsWoche Internet die technisch gemessenen Visits mit der hochgerechneten Reichweite, säßen im Durchschnitt vier Online-Nutzer gemeinsam vor einem Bildschirm. Denn wie sonst ist es vorstellbar, dass WirtschaftsWoche Internet 233 000 Nutzer pro Woche hat, die aber nur 60 000 Visits erzeugen (vgl. Abbildung 7)? Das Argument der ACTA-Verantwortlichen, die Kritiker haben die Problematik von „Proxy-Servern“, lokaler „Cache-Speicher“ und „Firewalls“ – WirtschaftWoche Internet werde vor allem am Arbeitsplatz genutzt – nicht berücksichtigt, verliert an Gewicht. Denn es treten auch die umgekehrten Verhältnisse auf, dass die Reichweite von Online-Angeboten (Bild Online, Stern Online) deutlich unterschätzt wird. Hier liegen Image-Effekte vor, auf die noch einzugehen sein wird. Die Reichweiten für TV Spielfilm sind nicht vergleichbar. Die ACTA erhebt die Nutzung des Online-Angebots (Domain) und die IVW das Portal TV Spielfilm Network. Abbildung 7 Dennoch ist es der ACTA zu verdanken, die Vorreiterrolle übernommen zu haben. Auch in den Folgejahren zeichnet sich die Studie durch hohe Kreativität und Innovationsfähigkeit aus. 145 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Der GfK Online-Monitor erhebt seit der 3. Welle (1998/99) die Nutzung der 100 reichweitenstärksten Online-Angebote. Grundlage ist die IVW-Statistik und veröffentlichte Daten nicht IVW-gemeldeter Domains. Für die Erhebung wird das MA-Zeitfiltermodell (siehe Abbildung 5) eingesetzt. Aber die Daten werden nicht zu Nutzungswahrscheinlichkeiten verrechnet und als Reichweiten deklariert. Und sie werden gemäß Beschluss der Auftraggebergemeinschaft nicht veröffentlicht und dürfen im Wettbewerb nicht vergleichend dargestellt werden. Sie dienen zu internen Zwecken. Maßgeblicher Grund für die Nichtveröffentlichung sind die umfragebedingten Image-Effekte, die dazu führen, dass bestimmte Angebote unrealistisch hohe Reichweiten erzielen und andere dagegen zu niedrige.62 Ein Beispiel: Die Reichweite des für die Jugend „hippen“ WWW-Angebots von TV Total ist nahezu doppelt so hoch wie die von Bild Online. Schaut man in die IVW Online-Statistik, sind die Verhältnisse genau umgekehrt. Image-Effekte, Crossmediaeffekte63 und Verwechslungsgefahren64 treten insbesondere bei Telefonumfragen auf. In face-to-face durchgeführten Umfragen (Paper-and-Pencil oder CAPI) treten Image-Effekte weniger auf. Hier sorgen vor allem Bildvorlagen (Logos der Online-Angebote) dafür, dass die o.a. Störeffekte besser kontrolliert werden können und deshalb weniger gravierend sind. Einen Überblick, welche Studien im Jahr 2003 zur Mediaplanung herangezogen werden können, zeigt die folgende Tabelle. Reichweiten auf Basis von Nutzungswahrscheinlichkeiten (p-Werte) bieten nur einige Studien an. Und für Online-Angebote (Domains) oder deren Unterangebote (Channels) weisen nur die ACTA und der ORM Reichweiten in Form von p-Werten aus. 62 Reigber, Dieter und Spohrer, Michael (1998). Research Strategies in Fragmented Markets. a.a.O., S. 213f. 63 Crossmediaeffekte treten bei Marken auf, die in mehreren Mediengattungen präsent sind. Häufig ist dies bei TV-Programmen wie TV Total, Wochenshow, VIVA, MTV der Fall, weniger dagegen bei Printmedien. 64 In Telefonumfragen vermögen nicht alle Befragten einem Interview durchgehend aufmerksam zu folgen bzw. verstehen fremdsprachliche IT-Begriffe oder Marken nicht. 146 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Markt-Media/Werbeträger-Studien zum Thema Online-Nutzung Studie Tabelle 6 Grundgesamtheit Herausgeber Interviews Online-Nutzer ACTA 2003 IfD Allensbach Ausweis von Reichweiten Online-Nutzung Nutzungsintervall Online-Angebote: Domaines (Channels) p-Wert Nutzungsintervall p-Wert Anzahl WNK *) Nutzer pro Monat Nutzer pro Woche ja ja 98 94 78 ) im Split erhoben WNK **) im letzten Monat letzte Woche nein nein 60 ) o 60 ) o 60 ) Gesamt **) im letzten Monat letzte 14 Tage ****) nein nein 59 (+14) 59 (+14) 59 (+14) nein ja 126 126 72 (+8) 14 - 64 Jahre 10.424 5.801 Fälle Gesamt *) Nutzer pro Tag ja Gesamt *) Nutzer pro Tag ja www.awa-online.de ab 14 Jahre 21.107 9.752 Fälle @facts SevenOne Interactive u.a., Forsa ab 14 Jahre monatlich 10.000 monatlich 5.000 Gesamt **) WNK **) wöchentlich täglich 14 - 69 Jahre 1) 29.917 12.553 Fälle Gesamt **) Nutzer pro Tag ab 14 Jahre 25.928 Interviews 9.050 Fälle Gesamt *) im letzten Monat letzte Woche nein nein 14 - 69 Jahre 2 13.198 ) 6.437 Fälle WNK ***) im letzten Monat Nutzer pro Woche NpW zu Hause NpW außer Haus Nutzer pro Tag NpT zu Hause NpT außer Haus nein ja ja ja ja ja ja ab 14 Jahre 3) 20.258 6.444 Fälle Gesamt *) Nutzer pro Tag ab 14 Jahre 4) 31.424 9.514 Fälle Gesamt **) diverse Intervalle www.acta-online.de AWA 2003 IfD Allensbach www.71i.de/..... Download: @facts CN7 FOCUS Magazin Verlag www.medialine.focus.de Fakten MA 2003 II AG.MA www.agma-mmc.de ORM 2003 II AGIREV www.agirev.de MDS Onlinetool TdWI 2003/04 Burda Advertising Center www.bac.de/... Markt-Media-Service VA 2003/2 Axel Springer/Bauer Media www.mediapilot.de/... MDS online *) ohne zeitliche Eingrenzung **) innerhalb der letzten 12 Monate ***) innerhalb der letzten 3 Monate ****) wird als WNK definiert keine o nein nein ja o keine WNK ***) im letzten Monat Nutzer pro Woche ja Frequenzabfrage: regelmäßig bis nie nein 51 nein Gesamtnutzung diverser Provider/ Suchmaschinen nein 28 1) 16.093 Interviews ad random plus 13.824 quotiert letzte Halbjahreswelle in 2002/03 und erste in 2003 in 2 Wellen von 2002 und 2003 4) in 4 Wellen von 2001 bis 2003 2) 3) Tabelle 6 Die ACTA bietet seit 2002 als einzige Studie Reichweiten für CrossmediaKombis an. Für 9 Angebote werden Kombinationen aus Printtitel (LpA) und Online-Angebot (Nutzer pro Woche) ausgewiesen (z.B. die Spiegel plus Crossmedia-Kombi). Crossmedia-Angebote erlauben es den Vermarktern, in Rangreihen ihre Angebote optimal zu platzieren, wenn hohe Reichweite und hohe Affinität zur Zielgruppe der Online-Nutzer gefragt sind. Und es gibt genügend Belege dafür, dass Crossmedia-Produkte einen höheren Werbewirkungsbeitrag liefern (vgl. Fußnoten 26 und 27). Die Werbungtreibenden fordern, Reichweiten für die Unterseiten von OnlineAngeboten (Seitenkontingente, Belegungseinheiten) auszuweisen. Dem kann mit den bisherigen Erhebungsverfahren nur unzureichend Rechnung getragen werden. In Umfragen ist dies erhebungstechnisch nur schwer zu realisieren. Der Online Reichweiten-Monitor erlaubt dies nur für Angebote, die einen unverwechselbaren, eigenständigen Auftritt (URL) haben und deren Logo als Bildvorlage im Interview (CAPI) darstellbar ist. Im Telefoninterview (CATI) dürfte die 147 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Abfrage von Unterangeboten durch die zuvor benannten Störeffekte zu keinen validen Ergebnissen führen. Und beim NetMetrix-Panel ist die Datenbasis auf Grund der Panelgröße zu gering und reicht gerade aus, die Unterseiten reichweitenstarker Online-Angebote (T-Online, AOL, Yahoo etc.) auszuweisen. Wenn NetMetrix-Panel dennoch Unterseiten auch für andere Angebote anbieten, so stößt man bei der Auswertung schnell auf Fallzahlgrenzen von unter 40 Fällen. Und damit begibt man sich auf den Boden der Spekulation. Solche Reichweitenwerte sind für die Mediaplanung wenig geeignet. Die ACTA 2003 geht einen neuen Weg, um mit Hilfe von standardisierten Rubriken – analog zu Seitenkontingenten – die Nutzung von Online-Angeboten zu erfragen. Für neun Online-Angebote (Lizenznehmer der ACTA) werden 33 Rubriken auf Basis des Weitesten Nutzerkreises („schon mal genutzt“), der Nutzung im letzten Monat und in der letzten Woche erhoben. Die Rubriken und Online-Angebote werden zu Nutzungswahrscheinlichkeiten verrechnet und als Nutzer pro Monat bzw. Nutzer pro Woche ausgewiesen, z.B. Spiegel Online Wirtschaft. In der Tabelle soll die Plausibilität der Ergebnisse demonstrieren, dass das neue Instrument für die Mediaplanung von Seitenkontingenten geeignet ist. Die ACTA kommt damit dem Wunsch der Werbungtreibenden entgegen, Belegungseinheiten auszuweisen. Oder ist das Verfahren doch nur eine Krücke und hat den Charme des Vorläufigen, bis Reichweiten für Unterseiten/Channels ausgewiesen werden können? Wir werden sehen, ob diese Art von Reichweiten im Alltag der Mediaplanung Eingang finden. Jedenfalls nimmt die ACTA damit etwas vorweg, was die AGOF mit ihrer Studie sich zum Ziel gesetzt hat. ACTA 2003 Tabelle 7 Umfeld: Wirtschaft/Finanzen/Börse Bevölkerung 14-64 Jahre Besitz: Aktien, Anteil an Aktienfonds Reichweite NpW in Tsd. Anteil % Affinitätsindex 50.740 31 100 SPIEGEL Online + besonderes Interesse an Wirtschaftsthemen, -fragen 772 63 204 SPIEGEL Online Wirtschaft 833 59 192 FOCUS Online + besonderes Interesse an Wirtschaftsthemen, -fragen 274 86 280 FOCUS Online Börse 278 80 260 STERN Online + besonderes Interesse an Wirtschaftsthemen, -fragen 443 58 191 STERN Online Wirtschaft 255 55 179 Gesamt Quelle: Marketing Kommunikation Dieter Faehling GmbH, ACTA 2003, http://www.acta-online.de, PDF Download Tabelle 7 148 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Planungssichere Reichweiten für Online-Angebote wie für deren Unterseiten werden wohl erst Ende 2004 mit dem innovativen Erhebungsinstrument der AGOF zu erwarten sein. Dabei handelt es sich um einen Multimethodenansatz (siehe Abbildung). Und die Untersuchung soll mehr als 50 000 Fälle umfassen. Diskutiert wird, ob die geltenden Forschungsstandards eingehalten werden oder ob neue Regeln erforderlich sind, die von den Gremien (z.B. AG.MA) zertifiziert werden müssen. Die Qualität der Daten hängt weniger von den bisher bekannten Störeffekten in der Erhebungsphase ab (s.o.) als vielmehr von Faktoren, die in der Aufbereitung, Gewichtung und Fusion der Daten liegen und deren Auswirkungen noch wenig bekannt sind. Derzeit wird das Instrument getestet, insbesondere der Prozess des Data Minings und Profilings. Bei diesem Verfahren werden Personenmerkmale auf Grund des Nutzungsverhaltens übertragen. Evaluationsstudien sollen sicherstellen, dass diese Methode zu nachvollziehbaren Ergebnissen führt. Abbildung 9 Reichweiten sind das A und O der Mediaforschung. Die herkömmlichen Erhebungsverfahren werden durch technische Messverfahren nicht ersetzt, sondern beide Verfahren werden miteinander kombiniert. Das hat Zukunft. Und wenn die Erhebung auf großer empirischer Breite fußt und es der Mediaplanung ermöglicht wird, auch kleinere Zielgruppen auf kleineren Sites oder Unterseiten auszuwerten, dann hat die Online-Branche den anderen Mediengattungen etwas voraus. Online Reichweiten-Monitor und @facts haben für eine Übergangszeit ihr Soll erfüllt. Die beteiligten Mediaforscher haben genügend Erfahrungen gesammelt. Reichweiten im Online-Markt sind nicht so einfach zu erheben, wie man anfangs dachte. Durch Markt-/Media-Studien wie die ACTA oder Communication Net149 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de works werden weiterhin Online-Reichweiten im Zusammenhang mit vielen wichtigen Märkten zählbar sein. Und auch die anderen Umfragestudien (TdWI, VA, LAE etc.) haben ihre Daseinsberechtigung nicht verloren. Denn sie alle geben uns neben den Online-Reichweiten wichtige Konsumdaten, die uns die AGOF-Studie in der Differenzierung nicht liefern wird können. V. Nutzerstrukturen: Soziodemografie versus Typologien Dem Online-Nutzer auf die Spur zu kommen, heißt, ihn anhand von persönlichen Merkmalen zu beschreiben. Die konventionelle Mediaplanung benutzt zur Segmentierung vor allem soziodemografische Kriterien. Sie haben den Vorteil, dass sie leicht fassbar und messbar sind. Ihr Nachteil ist, dass einige Merkmale kaum noch Erklärungskraft besitzen.65 Dass das Haushaltsnettoeinkommen keine brauchbare Variable ist, hat sich schon herumgesprochen. Dennoch ist es immer noch Bestandteil von vielen Mediaplänen. Neben dem formalen, also dem biologischen Geschlecht spielt heutzutage beim Konsumverhalten das psychologische Geschlecht eine wichtigere Rolle. Die Geschlechtsrollenorientierung hat großen Einfluss auf das Mediennutzungsverhalten und auf die Rezeption von Werbung.66 Und wie steht es mit dem Merkmal Alter? Das Marketing will uns immer noch weismachen, dass ältere Menschen unflexibel sind beim Konsum. Aber die heutigen Senioren fühlen sich zumeist gar nicht alt, weil sie eben nicht so „verbraucht“ sind wie frühere Rentnergenerationen. Apropos Alterseinstufung: Eine Allensbacher Umfrage von 1992 hat zum Ergebnis, dass Frauen sich durchschnittlich zehn Jahre jünger wähnen, als sie sind. Dort, wo die Moderne ausdifferenziert, zeigen sich an der Schwelle zur Postmoderne Tendenzen zur Entdifferenzierung. An dieser Stelle setzt eine neue Ära der Zielgruppenforschung an. Der Essener Medienphilosoph Norbert Bolz formuliert in einem Interview: „Die wirklichen Trennlinien in unserer Kultur verlaufen nicht mehr zwischen den Altersgruppen. Mediennutzung sagt viel mehr aus: Ein 39-Jähriger, der im Internet surft, hat mehr mit einem 18-Jährigen ComputerFan gemeinsam als mit seinem Altersgenossen, der nur Bücher liest. Gerade die 65 Vgl. Reigber, Dieter. Der Einsatz von Zielgruppenmodellen als Instrument für das Anzeigenmarketing. In: Scherer, Helmut und Brosius, Hans Bernd (Hrsg.): Zielgruppen, Publikumssegmente, Nutergruppen. Beiträge aus der Rezeptionsforschung. München (R. Fischer Verlag) 1997, (Angewandte Medienforschung; Bd. 5), S. 114–140. 66 Vgl. Reigber, Dieter: Relevanz der Frauen-Welten: Typologien für die Marktforschung. In: Reigber, Dieter (Hrsg.): Frauen-Welten. Marketing in der postmodernen Gesellschaft – ein interdisziplinärer Forschungsansatz. Düsseldorf (ECON) 1993, S. 320–368. 150 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de neuen Medien dringen immer tiefer in unseren Alltag ein, strukturieren immer mehr unsere Gewohnheiten. Viele traditionelle Unterschiede verwischen auch dadurch, dass es heute Eltern gibt, die erst mit 40 Jahren Kinder kriegen, andere schon mit 20. In diesem Mischmasch der Generationen könnte man tatsächlich den überholten Begriff der Zielgruppe ersetzen, wenn es gelänge, Gruppen anhand ihrer Mediennutzung zu charakterisieren.“67 Die Mediaforschung von Interactive Media (Axel Springer Verlag) ist einer solchen medienübergreifenden Nutzungstypologie auf der Spur gewesen.68 Der Beleg für ein fragmentiertes Medienpublikum in einem fraktionierten Medienmarkt ist im Ansatz erbracht. Der Zweck der Typologie ist, trotz zunehmender Fragmentierung der Forderung nachzukommen, Werbeträger intermedial als auch intramedial besser planen zu können und die These von Norbert Bolz zu überprüfen. Dieser Anspruch wird in den nächsten Jahren einzulösen sein. Gefragt sind alternative Reichweitenerhebungsmodelle.69 Abbildung 10 67 Abgestempelt: Zu alt! Interview mit Norbert F. Bolz. In Hörzu, Heft 18 vom 30.4.1998, S. 6–8. 68 Es wurde eine Clusteranalyse über die Nutzungswahrscheinlichkeiten (p-Werte) von sieben Mediengattungen (Zeitschriften, Tageszeitungen, Fernsehen, Hörfunk, Kino, Teletext, Online) durchgeführt. 1998 gibt es nur eine Studie, die solch eine Analyse erlaubt: die Typologie der Wünsche Intermedia. Da die TdWI in den Folgejahren Fernsehen und Teletext ausgeklammert hat, konnte das ambitionierte Forschungsprojekt nicht weitergeführt werden. 69 Vgl. Reigber, Dieter und Spohrer, Michael: Research Strategies in Fragemented Markets. a.a.O., S. 209. 151 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Das Geschlechterverhältnis unter den 14- bis 69-jährigen Online-Nutzern des Weitesten Nutzerkreises – innerhalb der letzten drei Monate – ist im Jahr 2003 noch immer ungleich verteilt. Und je zeitnäher bzw. intensiver die Online-Nutzung ist, desto geringer fällt die Frauenquote aus. Unter den Online-Nutzern pro Tag sind zwei Drittel männlich70. Bei den „Newcomern“ unter den Online-Nutzern, die weniger als ein Jahr Internet-Erfahrung haben, ist das Geschlechterverhältnis nahezu ausgeglichen: 50,4 Prozent Männer, 49,6 Prozent Frauen – in der 14- bis 69-jährigen Bevölkerung sind 49,8 Prozent männlich und 51,2 Prozent weiblich (ORM 2003 II). Online-Nutzer (WNK) sind auch im Jahr 2003 jünger als der Bevölkerungsdurchschnitt. Deutlich überrepräsentiert sind die 14- bis 29-Jährigen. Und deutlich unterrepräsentiert sind die 50- bis 69-Jährigen. Unter den OnlineNutzern pro Tag verschieben sich die Anteile nicht; soll heißen: Bei der Nutzungsintensität hat das Alter keinen zusätzlichen Einfluss. Die Altersstruktur der „Online-Newcomer“ ist wider Erwarten identisch mit der der Gesamtnutzerschaft. Eine Trendanalyse zeigt, dass die Online-Nutzerpro-Woche-Reichweite bei den Senioren, wenngleich auf niedrigem Niveau, überdurchschnittlich zugenommen hat. Und dennoch: Der überwiegende Teil der Abbildung 11 70 Vgl. Online-Reichweiten-Monitor 2003 II. Die aktuellere ACTA 2003 weist ähnliche Ergebnisse aus für 14- bis 64-jährige Bevölkerung: Weitester Online-Nutzerkreis 55,6 % Männer, 44,4 % Frauen; Online-Nutzer pro Tag: 62,9 % Männer, 37,1 % Frauen. 152 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Abbildung 12 heutigen älteren Menschen vermag der Innovationsgeschwindigkeit im OnlineMarkt nicht folgen und schließt die Nutzung des Mediums für sich aus. Spätere Kohortenanalysen werden dies belegen können. Die Zuwendung zum Online-Medium ist im Jahr 2003 weniger abhängig vom Bildungsstatus als noch vor wenigen Jahren. Es ist die Bildungselite gewesen, die das Internet als Informationsmedium früh erkannt hat. Unterhaltungsangebote gibt es in den ersten Internet-Jahren kaum. Das Internet hat sich weiterentwickelt. Heute spielt der unterhaltende Sektor eine wesentlich größere Rolle. Und eben auch solche Applikationen, die einfach gebildete Menschen ansprechen. Menschen mit Volks-/Hauptschulabschluss sind in der Online-Nutzerschaft noch deutlich unterrepräsentiert; selbst in der Altergruppe der 14- bis 49-Jährigen, denen mit der Bildungsreform in den 1960er-Jahren alle höheren Bildungswege offen stehen. Aber der Anteil der Internet-Neulinge (Nutzer seit sechs Monaten) in dieser Altersgruppe mit Hauptschulabschluss entspricht dem in der Bevölkerung (31 %). Bald wird die werberelevante TV-Zielgruppe auch über das Internet erreicht. Ganz nebenbei: Gegenwärtig sehen 30 Prozent der Online-Nutzer (NpT) an keinem Tag pro Woche zwischen 19 und 20 Uhr Fernsehen. Und zwischen 20 und 22 Uhr sind es immerhin 18 Prozent, so das Ergebnis einer Auswertung der TdWI 2003/04 Trend. 153 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Abbildung 13 Voll Berufstätige und in Ausbildung Befindliche haben eine höhere Affinität zur Online-Nutzung als andere Bevölkerungsgruppen. Die Nichtberufstätigen sind deutlich unterrepräsentiert. Überwiegend sind es die Ruheständler und die im Haushalt Tätigen, die das Internet nicht nutzen. Der Zusammenhang ist altersund geschlechtsbedingt. Unter den Internet-Neulingen sind die Arbeitslosen und die Hausfrauen/-männer entsprechend dem Bevölkerungsdurchschnitt vertreten. Abbildung 14 154 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Abbildung 15 In den oberen Gehaltsgruppen beim Haushaltsnettoeinkommen (HHNE) sind die Online-Nutzer überrepräsentiert. Aber was will das schon heißen? Die Variable HHNE erklärt unabhängig von Haushaltsgröße und Anzahl der Verdiener im Haushalt wenig. Ein gut verdienender Polier, seine nebenher arbeitende Ehefrau und der Sohn in der Lehre haben zusammengenommen ein höheres Einkommen als der C4-Professor, der als Alleinverdiener einem 3-Personen-Haushalt vorsteht. In die Kernzielgruppe Konsumkraft fließt neben der Einkommenshöhe die Haushaltsgröße mit ein. Und hier zeigt sich, dass bei den Konsumkräftigen der Anteil der Online-Nutzer im Vergleich zur Gesamtbevölkerung nicht wesentlich größer ist. Auch beim frei verfügbaren Einkommen, also nach Abzug von Miete, Versicherungen usw., unterscheiden sich Online-Nutzer weniger als erwartet vom Bevölkerungsdurchschnitt. Im Jahr 2001 sind die Online-Forscher des Instituts W3B71 überzeugt, dass eine zunehmende Repräsentanz der Online-Nutzer in unserer Gesellschaft hergestellt sei. Gemeint ist, dass sich die Strukturen der Online-/Internet-User deutlich denen der Bevölkerung angleichen. Davon kann selbst im Jahr 2003 noch keine Rede sein. Zunehmende Repräsentanz würde bedeuten, dass wir uns in der End71 Vgl. Fittkau & Maaß: Internet-Anfänger surfen anders. In: Context 05/01, vom 13. März 2001, S. 12. Vgl. auch http://www.w3b.de (24.12.2003). 155 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de phase der Entwicklung befinden. Fakt ist aber, dass die soziodemografischen Strukturen der Online-Nutzer noch deutlich von denen der Bevölkerung abweichen. Online-User sind nach wie vor eher männlich, eher jünger, eher besser gebildet und haben eher höhere Einkommen. Bei den Internet-Neulingen im Jahr 2003 stimmen die Merkmalsanteile für Geschlecht, Bildung und Tätigkeit mit denen der Bevölkerung überein; aber bei der Altersstruktur gibt es noch deutliche Unterschiede. In vielen Analysen zum Online-Markt wird darauf hingewiesen, dass die OnlineNutzerschaft noch immer eine recht homogene Zielgruppe ist. Da demografische Merkmale bei der Beschreibung von Mediennutzungs- und Konsumverhalten kaum noch Erklärungskraft besitzen, sollte der Forscher hinter die Kulissen schauen. In diesem Zusammenhang helfen Typologien, die auf psychografischen Merkmalen fußen, schon eher weiter. Zur Verortung der Online-Nutzerschaft können beispielsweise die Sinus-Milieus herangezogen werden. Die Sinus-Milieus sind das Ergebnis von fast zwei Jahrzehnten sozialwissenschaftlicher Forschung. Die Definition der Sinus-Milieus geht aus von der Lebenswelt und dem Lebensstil der Menschen – und nicht von formalen Kriterien wie Schulbildung, Beruf und Einkommen. Die Grenzen zwischen den Milieus sind fließend. Lebenswelten sind nicht so exakt eingrenzbar wie soziale Schichten. Die Sinus-Milieus werden seit 1995 kontinuierlich in der TdWI ausgewiesen. Sie eignet sich deshalb gut für eine Zeitreihenanalyse, um Veränderungen in der Zusammensetzung der Online-Nutzerschaft aufzuzeigen. Das Schaubild zeigt die Milieustruktur 1997/99 in Westdeutschland. Je höher das entsprechende Milieu in der Grafik angesiedelt ist, desto gehobener sind Bildung, Einkommen und Beruf. Und je weiter ein Milieu sich nach rechts erstreckt, desto weniger traditionell ist seine Grundorientierung. Anhand der Sinus-Milieus können die strukturellen Unterschiede zwischen der Online-Nutzerschaft und der durchschnittlichen Bevölkerung dargestellt werden. Die Fragmentierung ist kaum oder nur wenig über rein soziodemografische Merkmale erklärbar. Erst die Kombination aus sozialer Schichtung und Wertorientierung gibt uns eine Vorstellung, warum in einigen Milieus das Internet eine hohe Penetration erfährt und in anderen so gut wie kaum.72 72 Vgl. Sinus Sociovision, Heidelberg; Typologie der Wünsche 1999/2000, S. 12–17. 156 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Trend: Online-/Internet-Nutzung 1997 bis 1999 Die Sinus Milieus in Deutschland West Oberschicht Obere Mittelschicht Konservativtechnokratisches Milieu 10 % Liberal-intellektuelles Milieu 10 % 148 140 170 96 114 119 Mittlere Mittelschicht Postmodernes Milieu 6% Modernes bürgerliches Milieu 8 % Aufstiegsorientiertes Milieu 18 % Kleinbürgerliches Milieu 14 % Untere Mittelschicht 9 4 6 139 137 126 Traditionelles Arbeitermilieu 5% 11 8 18 Unterschicht 70 70 59 Traditionsloses Arbeitermilieu 11 % Modernes Arbeitnehmermilieu 7% 222 163 149 171 200 195 Hedonistisches Milieu 12 % Darstellung: Größe der Milieus in % OnlineNutzung: Index 130 134 107 27 35 52 Soziale Lage Grundorientierung Materielle Grundorientierung Konservative Grundorientierung Status / Besitz Konsum Hedonismus Postmaterialismus Postmodernismus »Bewahren« »Haben« »Verbrauchen« »Genießen« »Sein« »Erleben« © Sinus Sociovision – Heidelberg / Quelle: TdWI ‘98/99 Trend, deutschsprachige Bevölkerung in Westdeutschland, 50,53 Mio. 8095 Interviews Abbildung 16 Die Anteile in Prozent geben die Größe des Milieus in der Bevölkerung wieder. Die Zeitreihenergebnisse sind als Indizes dargestellt. Ein Index > 100 bedeutet, dass Online-Nutzer in dem Milieu um den Anteil > 100 überrepräsentiert sind. Ein Index < 100 bedeutet den umgekehrten Fall. Zuerst einmal fällt auf, dass Online-Nutzung ein Oberschichtphänomen und zugleich Inbegriff innovationsbereiter Bevölkerungsschichten ist. Denn OnlineUser mit kleinbürgerlicher Milieu-Zugehörigkeit oder traditioneller wie traditionsloser Arbeitermilieu-Zugehörigkeit sind weit unterrepräsentiert. Dagegen gibt es weit mehr Online-User im informationsorientierten konservativ-technokratischen Milieu, das zwar nicht sonderlich innovationsfreudig ist, sich aber per se durch hohe Technikakzeptanz auszeichnet. Und deutlich überrepräsentiert sind Online-User in den Milieus, die an der vordersten Kante der gesellschaftlichen Entwicklung (at the leading edge) sich befinden: im postmodernen oder im hedonistischen Milieu; und besonders im modernen Arbeitnehmermilieu, dessen Angehörige in den modernen Schlüsselindustrien und Dienstleistungsbereichen arbeiten, wo die Nutzung von Computer und Internet zum Alltag gehören. Und es zeigen sich Besonderheiten: 1997 sind im modernen bürgerlichen Milieu die ausschließlich am Arbeitsplatz nutzenden Online-User noch leicht überrepräsentiert. Zu Hause spielt Online-Nutzung dagegen kaum eine Rolle. Im Zentrum des modernen bürgerlichen Milieus stehen Familie und Kinder. Die Freizeit wird vor allem mit den Kindern verbracht. In der Kindererziehung des modernen bürgerlichen Milieus treffen moderne Kommunikationstechniken auf 157 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Vorbehalte. Im Jahr 1998 ist selbst im Berufsleben ein Rückzug vom OnlineMedium festzustellen. Dieses Milieu scheint sich der modernen Kommunikationstechnologie zu verweigern, und das nicht nur aus ästhetischen Gründen. Im liberal-intellektuellen Milieu sind 1998 die Online-Nutzer erstmals überrepräsentiert. Viele Anzeichen sprechen dafür, dieses Milieu lehne die neuen Kommunikationstechniken intellektuell ab, weil es damit eher Befürchtungen denn Hoffnungen auf eine bessere Zukunft verbindet. Zwischenzeitlich haben die Liberal-Intellektuellen eine eher konstruktiv-kritische, gleichsam pragmatische Position eingenommen. Online wird in den nächsten Jahren ein Oberschichtphänomen und ein Metier für innovative Bevölkerungsschichten bleiben, wenn der Zugang ausschließlich über den Computer erfolgt. Erst wenn es zu einer Medienkonvergenz von Internet und Fernsehen (Teleweb, Web-TV) kommt, ist damit zu rechnen, dass auch die unteren sozialen und weniger innovationsbereiten Schichten erreicht werden.73 Trend: Online-/Internet-Nutzung im Jahr 2000 Sinus Milieus in Deutschland Oberschicht Obere Mittelschicht Mittlere Mittelschicht Etabliertes Milieu 8% Bürgerlichhumanistisches Milieu 1% 134 212 Traditionelles bürgerliches Milieu 14% 8 Untere Mittelschicht DDR-verwurzeltes Milieu 106 2% 37 Modernes bürgerliches Milieu 8% 75 Statusorientiertes Milieu 15% Postmodernes Milieu 6% Adaptives Milieu 8% 193 263 132 Traditionelles Arbeitermilieu KonsumKonsum6% materialistisches Milieu Milieu 14 materialistisches 11% 11% Unterschicht Gesamtdeutsche Milieus Intellektuelles Milieu 10% Hedonistisches Milieu 11% Darstellung: Größe der Milieus in % OnlineNutzung: Index KonvergenzMilieus Westspezifisches Milieu Ostspezifische Milieus 84 3636 Soziale Lage Grundorientierung Materielle Grundorientierung Konservative Grundorientierung Status / Besitz Konsum Hedonismus Postmaterialismus Postmodernismus »Bewahren« »Haben« »Verbrauchen« »Genießen« »Sein« »Erleben« © Sinus Sociovision – Heidelberg / Quelle: TdWI 2000/1 Trend, Bev. ab 14 Jahre, 63,83 Mio., Zielgruppe: Weitester Online-Nutzerkreis Abbildung 17 Zur Situation im Jahr 2000: Die sozialen Lebenswelten in Ost- und Westdeutschland nähern sich an. Viele Milieus können schon gesamtdeutsch ausgewertet werden. Aber es gibt immer noch spezifische Ost-Milieus, die aus dem Blickwinkel eines Westdeutschen erklärungsbedürftig sind. Einige Milieus werden neu benannt, mit der Begründung, diskriminierungsfreiere Bezeichnungen finden zu wollen. Inhaltlich sind die Milieus gleich geblieben. 73 Heute wissen wir, dass es zur Medienkonvergenz noch immer nicht gekommen ist. Die Prognose wurde 1998 gewagt. Vgl. Reigber, Dieter: Markt- und Mediaforschung über das Internet. Veröffentlichte Präsentation zu den Daten des GfK Online-Monitors 2. Welle im Sommer 1998. Hrsg. v. Interactive Media (Axel Springer Verlag), Hamburg. 158 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Auf Basis einer gesamtdeutschen Betrachtung haben sich die Milieuschwerpunkte der Online-Nutzer im Jahr 2000 kaum verändert. Es gibt Milieus, in denen Online-User überrepräsentiert, andere, in denen sie seit je her unterrepräsentiert sind. Soziodemografisch betrachtet, schreitet der Nivellierungsprozess bezüglich Geschlecht, Bildung und Tätigkeit voran, wie die Daten des GfK Online-Monitors zeigen. Aber milieuspezifisch betrachtet, hat sich in den Jahren so gut wie nichts verändert. Nach wie vor finden Menschen im traditionellen bürgerlichen Milieu (früher die Kleinbürger genannt) und im traditionellen wie im traditionslosen Arbeitermilieu (heute die Konsummaterialisten) kaum Zugang zum Internet. Online-Nutzung ist im intellektuellen Milieu nur leicht überrepräsentiert. Es herrscht die Skepsis vor, die modernen Kommunikationstechniken gäben dem Staat und insbesondere der globalisierten Wirtschaft Möglichkeiten an die Hand, Online-Nutzer zu kontrollieren. Andererseits ist diese Schicht pragmatisch genug, die intellektuellen Vorbehalte hintanzustellen, wenn es um die Vorteile der Online-Nutzung geht. Dennoch werden sie sehr vorsichtig im Internet agieren. Cookies werden sie sich ungern setzen lassen. Trend: Online -/Internet-Nutzung 2001 bis 2003 Sinus Milieus in Deutschland Oberschicht/ Obere Mittelschicht Darstellung: Größe der Milieus in % Etablierte 10% Konservative 5% 169 138 129 53 40 47 Postmaterielle 10% 185 182 170 Moderne Performer 8% 285 225 210 Bürgerliche Mitte 16% Mittlere Mittelschicht Traditionsverwurzelte 15% DDRNostalgische 4 13 12 Untere Mittelschicht / Unterschicht Experimentalisten 7% 61 71 83 144 153 173 6% 25 50 47 Konsum-Materialisten 11% Hedonisten 11% 91 115 112 47 68 59 Soziale Lage Grund orientierung Traditionelle Werte Pflichterfüllung, Ordnung Modernisierung I Konsum-Hedonismus und Postmaterialismus © Sinus Sociovision – Heidelberg / Quelle: TdWI 2001/02 bis 2003/04 jeweils Trend, Be OnlineNutzung: Index Modernisierung II Patchworking , Virtualisierung v. ab 14 Jahre, 64,25 Mio., Zielgruppe: Weitester Online -Nutzerkreis Abbildung 18 Im modernen bürgerlichen Milieu sind nach wie vor Verweigerungstendenzen gegenüber den modernen Kommunikationstechniken festzustellen, nicht aus Unwissenheit, sondern eher aus prinzipiellen Gründen. 159 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Auffällig ist der Abwärtstrend im hedonistischen Milieu. Sie sind sehr innovativ – aber nur, was die Wünsche betrifft. Die Empiriker des Sinus-Instituts unterstellen ihnen zuweilen bloßes Wunschdenken. Im Jahr 1997 ist es noch „hip“, als Online-Nutzer zu gelten. Da haben sie sich gern als solche ausgegeben. Drei Jahre später stufen sie sich realistischer ein. Im Jahr 2001 führt das Institut Sociovision ein Modell-Update durch (vgl. Abbildung 18). Im Zuge dieser Überarbeitung wird die Milieulandschaft neu zugeschnitten. Damit wird dem gesellschaftlichen Wandel Rechnung getragen, ohne eine übermäßige Fragmentierung vorzunehmen. Ein direkter Vergleich der Milieuschwerpunkte der Online-Nutzer zum alten Modell ist nicht möglich.74 Der generelle Befund bleibt jedoch erhalten. Die Online-Nutzer haben Schwerpunkte in den gesellschaftlichen Leitmilieus (Etablierte, Postmaterielle, Moderne Performer) und den Hedonistischen Milieus (Experimentalisten, Hedonisten). Zwar besteht ein noch deutlich höheres Interesse bei den Hedonisten, die finanziellen Möglichkeiten sind jedoch beschränkt. Gezeigt werden soll, dass dem Online-Nutzer besser auf die Spur zu kommen ist, wenn man statt demografischer Merkmale Werteorientierung und Schichtzugehörigkeit heranzieht. Die Sinus-Milieus sind schon für viele Werbekampagnen Grundlage der Mediaplanung gewesen. Dazu zählen insbesondere Kampagnen für Pkws und Versicherungen. Nach dem Printsektor haben die TVSender dieses Tool in ihre Zählprogramme aufgenommen. Deshalb sollten die Sinus-Milieus, das RISC-Modell oder der Semiometrie-Ansatz75 oder andere Typologien, die Zielgruppen bezüglich ihrer soziokulturellen Werte beschreiben, im Rahmen der qualitativen Online-Mediaplanung eingesetzt werden. Um das Online-Nutzungsverhalten besser zu verstehen, eignen sich Nutzertypologien. Die Studie @facts extra (2003) bietet fünf Online-Nutzertypen an.76 Basis für die Typologisierung der Online-Nutzer ist ihr Interesse an insgesamt 34 Inhalten und 22 Internet-Anwendungen. Die Benennungen der Typen sind auf Grund ihrer Aktivität im Internet gewählt. 74 Der interessierte Leser wendet sich hinsichtlich der Beschreibung und der soziodemografischen Zusammensetzung der Milieus an das Sinus Institut, Heidelberg oder an die Herausgeber der Typologie der Wünsche bzw. an den Media Service, Burda Advertising Center (BAC), Offenburg. Der TdWI haben wir die Daten entnommen. 75 SevenOneMedia (2002). Semiometrie. Der Zielgruppe auf der Spur. Vgl. auch SevenOneMedia (2002). Mediaplanung mit Semiometrie. Top Thema August 2002. PDF-Download http:// www.sevenonemedia.de/research/zielgruppen/semiometrie/mediaplanung/index.php (24.12.2003) 76 SevenOne Interactive (2003). @facts extra. Online-Nutzer-Typen. PDF-Download unter http:// www.71i.de, Link @facts (24.12.2003) 160 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Die „Zurückhaltenden“ zeichnen sich durch eine kritische Haltung und emotionale Distanz zum Internet aus. Sämtliche Interessensdimensionen sind in dieser Gruppe unterrepräsentiert. Die Distanz ist zum Teil auf ihre Unerfahrenheit zurückzuführen. In dieser Gruppe befindet sich der größte Anteil der InternetNeulinge. Jeder zehnte Online-Nutzer zählt zur Gruppe der „Shopper“. Ihre Hauptinteressen liegen in den Bereichen Shopping, Nutzen von Kleinanzeigen und Recherchieren im Internet. Das Hauptmotiv, ins Internet zu gehen, ist der OnlineEinkauf von Waren oder die Nutzung von Dienstleistungen. Auch Technik- und Lifestyle-Themen interessieren diese Gruppe. Abbildung 19 Die „Surfer“ werden von den SevenOne-Interactive-Mediaforschern als die Online-Fans unter den Online-Nutzern bezeichnet. Für nahezu alle Interessensgebiete können sie sich begeistern. Lediglich Nachrichteninhalte und Recherche-Applikationen interessieren die Surfer kaum. Sie nutzen das Internet vor allem, um neue Unterhaltungsangebote zu finden und Computerspiele kennen zu lernen. Die „Info-Suchenden“ haben ein sehr pointiertes Interessensprofil. Alles dreht sich um die Informationsbeschaffung und Service-Anwendungen im Internet. Sie nutzen das Internet in erster Linie beruflich bedingt. Die Interessen der „Entertainer“ im Internet sind klar auf ein Ziel ausgerichtet: Alles, was zu Unterhaltung beiträgt und mit dem sie ihre Freizeit gestalten 161 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de können, z.B. Comedy- und Lifestyle-Themen, Audio- und Videodateien herunterladen und an Chats, Communities und Dating-Plattformen teilnehmen. Die @facts-Typologie kann dazu verwendet werden, Online-Angebote nach ihrer Nutzerschaft zu beurteilen. Und sie soll als qualitatives Instrument bei der Vorauswahl in der Mediaplanung eingesetzt werden. Lebenswelten- und Nutzertypologien der beschriebenen Art sollten in einer großangelegten Markt-/Media-Studie, wie sie die AGOF plant, zum Analyserepertoire gehören. Sie erklären mehr als bloße Demografie und eignen sich für eine differenzierte und optimale Online-Mediaplanung. Gegenwärtig gibt es neben dem NetMetrix-Panel von NetRatings nur zwei Werbeträgeranalysen, mit denen Online-Angebote geplant werden können. Das sind der Online Reichweiten-Monitor (ORM 2003 II) und die ACTA 2003. Der ORM hat für das nächste Jahr kaum noch Relevanz im Mediaplanungsgeschäft. Denn die Daten werden nicht mehr aktualisiert. Auch die Studie @facts hat zuletzt im September 2003 Daten veröffentlicht. Die Auftraggeber der beiden Studien haben sich in der Arbeitsgemeinschaft AGOF zusammengeschlossen und wollen im Jahr 2004 die neue „Online-Mediaplanungswährung“ vorstellen. Angesichts knapper Kassen werden die beiden o.g. Studien nicht weitergeführt, bis die Daten der neuen Untersuchung auf dem Markt sind. Die Lücke füllen bis dahin die ACTA 2003 und eingeschränkt der ORM 2003 II. Es ist nicht auszuschließen, dass von einigen Online-Vermarktern in der AGIREV der ORM wiederbelebt wird, wenn sich erweisen sollte, dass die AGOF-Studie bis Ende 2004 keine brauchbaren Daten publiziert (Honi soit qui mal y pense!). Auf den beiden folgenden Seiten sind die Ergebnisse zweier Rangreihen aus dem ORM und der ACTA dargestellt. Sie zeigen, welche Möglichkeiten der Mediaplanung geboten werden, aber auch, welche Grenzen die Instrumente haben. Was nützen Zählungen, in denen Reichweite und Affinitätsindex ausgewiesen werden, aber nicht die Wirtschaftlichkeit von Online-Angeboten berechnet werden kann. Bevor die Online-Vermarkter dem Markt eine neue OnlineMediaplanungswährung feilbieten, hätten sie ihre Hausaufgaben machen sollen. Es fehlen noch immer einheitliche Standards, wie Online-Werbeformen definiert und wie die Kosten ausgewiesen werden sollen. Im ORM 2003 II können 92 redaktionelle wie kommerzielle Online-Angebote (Domains), Channels für AOL, T-Online, MSN, Online-Kombis und InstantMessenger-Angebote ausgewertet werden. Die Rangreihe wurde mit dem 162 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Mediaplanungstool MediMACH77 gezählt. Zielgruppe sind die zumindest gelegentlichen Nutzer von Online-Diensten, die Fitness- und Wellness-Themen anbieten. Ein zunehmend wichtiger Markt, der von vielen Werbeträgern bedient wird mit redaktionellen Beiträgen und kommerziellen Angeboten. Die Online-Angebote sind sortiert nach Affinität zur Zielgruppe. Angeführt wird die Rangreihe von zwei Kombis von TOMORROW FOCUS, gefolgt von rein kommerziellen Anbietern aus der Touristikbranche. Die zweite Rangreihe wurde mit dem Mediaplanungstool MDS78 gezählt. In der ACTA 2003 können 76 Zeitschriften und Zeitungen, 16 Tarifkombinationen, zwölf TV-Sender, 94 redaktionelle wie kommerzielle Online-Angebote, neun Online-Angebote mit Belegungseinheiten und sieben Crossmedia-Kombinationen gezählt werden. Zielgruppe der Rangreihe sind Personen, die sich ein Flachbildfernsehgerät anschaffen wollen. Auch dies ein zunehmend wichtiger Markt für Online-Kampagnen. Die Rangreihe weist alle Werbeträger mit einer Affinität von 140 sortiert nach Reichweitehöhe aus. Angeführt wird die Rangreihe von der Spiegel plus Crossmedia-Kombi, gefolgt von den Nachrichtenmagazinen Der Spiegel und FOCUS. 77 Ein Mediaplanungsprogramm der MediMACH Software GmbH, COMsulting Gerhard Faehling GmbH, Timmendorfer Strand. http://www.medimach.com (31.12.2003). 78 MDS ist ein Zählprogramm, das vom Axel Springer Verlag, Hamburg, entwickelt und vermarktet wird. http://www.mediapilot.de, Link MDS (30.12.2003). 163 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Quelle : AGIREV ORM 2003 II MediMACH Tabelle 8 Tarifdatei: Tarife 2003 / Stand: 10.09.03 - Berechnung: Netto Zeitschriften: 1x 1/1 (Alt. 1/1) ; vierfarbig Zeitungen: 1x 1/1 s/w TV: 1x 30 Sekunden Radio: 1x 30 Sekunden Vorfilter: Weitester Nutzerkreis (innerhalb der letzten 3 Monate) (7.028 Fälle (ungew.); 6.300 Fälle (gew.); 26,28 Mio.) Fitness und Wellness: Nutze ich häufig/gelegentlich (1.284 Fälle (ungew.); 1.109 Fälle (gew.); 4,63 Mio.) Reichw. % Weitester Online-Nutzerkreis (innerhalb der letzten 3 Monate) Frauen TOMORROW FOCUS-Kombi Lifestyle TOMORROW FOCUS-Kombi TUI.de Lufthansa InfoFlyway neckermann versand L'tur Gute Zeiten, schlechte Zeiten Jamba! tv total comdirect Tchibo.de QUELLE VIVA pro7.de BOL handy.de RTL II Sat.1 online MTV JobScout24 cinema shopping24 Focus Online Shop AOL WirtschaftsWoche heute TV Movie.de Yahoo! Messenger OTTO RTL World Bild.T-Online.de ADAC online AOL Entertainment stern.de Fireball Auto Bild.de TOMORROW FOCUS-Kombi Die Bahn wissen.de MSN Messenger QC-Reichweitenkombi Kicker online Spiegel Online T-Online Messenger n-tv online QC-Nachrichtenkombi QC-Top-Zielgruppenkombi QC-Wirtschaftskombi mobile.de Instant Messenger NpW Computer TOMORROW FOCUS-Kombi Mio Kosten EUR TKP EUR Anteil % Index 0 200 Index 100 100,0 4,63 17,6 100 3,0 9,6 3,3 2,8 3,8 3,7 6,0 2,2 8,2 2,9 9,2 5,1 7,3 5,8 3,3 3,2 3,0 4,8 8,6 3,3 2,0 2,3 7,7 2,9 2,8 2,9 4,5 4,7 7,0 8,4 4,4 2,8 5,9 11,4 2,7 32,8 6,8 7,7 4,8 17,0 5,6 6,5 5,8 5,6 8,5 10,1 2,4 4,4 23,4 3,8 0,14 0,45 0,15 0,13 0,17 0,17 0,28 0,10 0,38 0,13 0,42 0,24 0,34 0,27 0,15 0,15 0,14 0,22 0,40 0,15 0,09 0,11 0,36 0,14 0,13 0,13 0,21 0,22 0,33 0,39 0,20 0,13 0,27 0,53 0,13 1,52 0,32 0,36 0,22 0,79 0,26 0,30 0,27 0,26 0,39 0,46 0,11 0,20 1,08 0,17 51,3 42,8 39,8 39,7 38,2 37,5 37,1 34,8 34,5 33,8 33,1 33,1 33,1 32,7 32,4 31,7 30,8 30,6 30,4 30,4 30,1 29,9 29,8 29,6 28,8 28,7 28,6 28,4 28,1 28,0 27,7 27,2 27,0 26,9 26,3 26,2 26,1 25,9 25,9 25,9 25,8 25,6 25,4 25,4 25,3 25,3 25,1 25,1 24,9 24,7 292 243 226 225 217 213 211 198 196 192 188 188 188 186 184 180 175 174 173 172 171 170 169 168 164 163 162 161 160 159 157 155 154 153 149 149 148 147 147 147 147 145 144 144 144 144 143 142 142 140 Tabelle 8 164 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de ACTA 2003 Rangreihe MDS Tabelle 9 Zielgruppe: Kaufplan Flachbildfernsehgerät; Potenzial: 9.3 %, 965 Fälle, 4.70 Mio. Vergleichs-Zielgruppe: Bevölkerung 14 bis 64 Jahre; Potenzial: 100,0 %, 10.424 Fälle, 50.74 Mio. Rangreihe nach Reichweite mit Affinitätsindex >= 140; Medien PZ-Preis: (1) = vorab, (2) = nicht aktuell 1 Spiegel plus Crossmedia-Kombi 2004-er Preise 10.10.2003 - Netto ReichEuro pro Kosten weite 1.000 Euro % Nutzer *** *** 19,0 ReichAffiweite nität Mio. 0,89 143 2 DER SPIEGEL 48.500 64,36 16,0 0,75 141 3 Focus 42.000 64,65 13,8 0,65 143 4 Computer Bild Crossmedia-Kombi *** *** 13,6 0,64 157 5 TV-N24 SPT *** *** 13,5 0,64 152 6 AOL.de (NpW) *** *** 12,6 0,59 141 7 T-online.de News/Nachrichten (NpW) *** *** 12,1 0,57 142 22.329 39,66 12,0 0,56 161 *** *** 10,9 0,51 144 *** *** 10,9 0,51 158 33.000 69,09 10,2 0,48 158 *** *** 9,9 0,46 149 32.300 93,14 7,4 0,35 144 14 Wetter.com (NpW) *** *** 7,3 0,34 141 15 Chip Crossmedia-Kombi *** *** 7,2 0,34 169 11.400 33,75 7,2 0,34 143 17 PC Welt Crossmedia-Kombi *** *** 7,0 0,33 162 18 FIREBALL (NpW) *** *** 7,0 0,33 141 19 T-online.de Sports/Sport (NpW) *** *** 6,0 0,28 165 20 WetterOnline (NpW) *** *** 6,0 0,28 149 21 PC-WELT (1) 16.490 60,02 5,9 0,27 168 22 Bild.de (NpW) *** *** 5,6 0,26 161 23 wissen.de (NpW) *** *** 5,4 0,26 140 24 bundesliga.de (NpW) *** *** 5,3 0,25 166 25 Playboy 21.000 88,91 5,0 0,24 154 26 CHIP (1) 14.400 61,20 5,0 0,24 164 27 Sport1.de (NpW) *** *** 5,0 0,23 178 28 Süddeutsche Zeitung Crossmedia-Kombi *** *** 5,0 0,23 140 29 FOCUS Online (NpW) *** *** 4,9 0,23 194 30 Spiegel Online (NpW) *** *** 4,8 0,23 164 31 n-tv.de CNN.de (NpW) *** *** 4,5 0,21 209 32 RTL World (NpW) *** *** 4,3 0,20 149 33 kicker online (NpW) *** *** 4,1 0,19 174 10.500 54,11 4,1 0,19 167 35 L'tur (NpW) *** *** 4,1 0,19 151 36 AutoScout24.de (NpW) *** *** 4,1 0,19 159 37 mobile.de (NpW) *** *** 4,1 0,19 170 22.250 120,23 3,9 0,19 140 39 stern.de (NpW) *** *** 3,9 0,18 176 40 C't/Heise online Crossmedia-Kombi *** *** 3,9 0,18 151 41 Kostenlos.de (NpW) *** *** 3,7 0,18 141 42 AltaVista (NpW) *** *** 3,6 0,17 173 43 TUI.de (NpW) *** *** 3,6 0,17 148 18.600 111,48 3,6 0,17 178 45 Spiegel Online Politik (NpW) *** *** 3,5 0,17 162 46 CHIP Online (NpW) *** *** 3,5 0,16 174 47 Bild.de News/Nachrichten (NpW) *** *** 3,4 0,16 191 48 MTV.de (NpW) *** *** 3,4 0,16 144 11.400 72,31 3,4 0,16 144 *** *** 3,3 0,16 148 8 COMPUTER BILD 9 Lycos (NpW) 10 Premiere Crossmedia-Kombi 11 Premiere (2) 12 Online-Angebot der reg. Tageszeitung (NpW) 13 AUTO BILD 16 COMPUTER BILD SPIELE 34 PC Games (2) 38 Petra 44 Men's Health (1) 49 WELT am SONNTAG Gesamtausgabe 50 Game Star Crossmedia-Kombi Tabelle 9 165 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Auf den nächsten Rängen sind die Computer Bild Crossmedia-Kombi, die Seher pro Tag des Nachrichtensenders N24, die Homepage von AOL.de und die Nachrichtenrubrik von T-Online. Crossmedia-Kombis vereinen vorteilhaft die Affinität des Online-Angebots zur Zielgruppe und die Reichweite des Printtitels in der Zielgruppe. Und mittels der Rubriken, die hier gleichsam als Belegungseinheiten fungieren, kann bei sehr reichweitenstarken Online-Angeboten dem Argument „Masse erschlägt Klasse“ begegnet werden. Fazit Die bisherigen Analyse-Instrumente sind für die Online-Mediaplanung suboptimal. Das liegt daran, dass in den gängigen Studien und Zählprogrammen Unterseiten (Belegungseinheiten) nur unzureichend ausgewiesen werden. Und es liegt an den Online-Vermarktern, die bislang keine Transparenz in der Preispolitik zulassen. In den Zählprogrammen sind die Kosten für die verschiedenen Werbeformate nicht eingepflegt. Damit kann Online-Mediaplanung nur auf Basis von Reichweite und Affinität zur Zielgruppe betrieben werden, nicht aber unter Wirtschaftlichkeitsgesichtspunkten. Es muss nicht verwundern, wenn die Media-Agenturen bis heute ob der unzureichenden Voraussetzungen die Online-Studien nur als Anhalt und zur Vorselektion nutzen, die eigentliche Mediaplanung aber auf der Grundlage ihrer bisher gemachten Erfahrungen – sie nennen es die agentureigenen Learnings – durchführen. Die Online-Vermarkter haben es sich viel kosten lassen, Online-Markt-/MediaStudien zu finanzieren oder NetMetrix-Panel-Lizenzen zu erwerben und zudem die Ausgaben für die IVW zu bestreiten. Alle diese Instrumente haben dem Markt Daten zur Verfügung gestellt, mit denen man „ein wenig“ planen konnte. Aber erst die Verzahnung dieser Instrumente ermöglicht echte Mediaplanung. Neu ist diese Idee nicht, denn sie wurde bereits im Jahr 1999 auf dem Worldwide Readership Symposium vorgestellt.79 Erwartungsfreudig verfolgen wir die Bestrebungen der AGOF, ein Mediaplanungsinstrument zu entwickeln, das die Vorteile technischer Messung und Umfrage kombiniert. Das Tool wird sogar wegweisend sein für die anderen Mediengattungen. 79 Reigber, Dieter und Spohrer, Michael: Research Strategies in Fragmented Markets. a.a.O. 166 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Dieter Reigber, M.A. ist Jahrgang 1951, selbstständiger Medienforscher mit Schwerpunkt Online-Forschung in Hamburg. Er studierte Publizistik, Politik und Öffentliches Recht an der Johannes-Gutenberg-Universität in Mainz. Von 1986 bis 1990 war er wissenschaftlicher Mitarbeiter am Institut für Demoskopie Allensbach und danach bis 1996 Studienleiter der Burda-Medienforschung. Dort operationalisierte er für den Launch von FOCUS die Info-Elite. Von 1996 bis 2000 war er Leiter Media bei interactive media im Axel Springer Verlag, Hamburg, und entwickelte dort ein Mediaplanungsinstrument für die Vermarktung von Teletext und war für den Aufbau der Online-Marktforschung zuständig. 2000/01 Geschäftsführer von PopNet Research. Seit 2002 freiberuflich tätig: Media Research & Consulting. Er koordinierte den Online Reichweiten-Monitor. Dieter Reigber ist Autor und Herausgeber diverser Publikationen zu Studien der Frauenforschung, Glücksforschung, der Medien- und Marktforschung, in denen Konzepte universitärer Forschung für das Marketing praxisbezogen aufbereitet werden: Frauen-Welten. Marketing in der postmodernen Gesellschaft (1993); Social Networks (1993); Glück im Garten – Erfolg im Markt (1995); Sprache in der Food-Werbung (1996); Communication Networks (1996), Agentenbasierte Marktforschung (2001). Quellenverzeichnis Aburdene, Patricia & Naisbitt, John (1993). Megatrends: Frauen. Düsseldorf: ECON, 1993. ACTA (2003). Allensbacher Computer- und Telekommunikationsanalyse. Hrsg.: Institut für Demoskopie Allensbach. Erstmalig 1997, seit 1998 werden Reichweiten für Online-Angebote auf Basis „Nutzer im letzten Monat“ ausgewiesen, seit 2000 als Nutzungswahrscheinlichkeit „Nutzer pro Monat“ und seit 2001 auch als „Nutzer pro Woche“. URL: http//www.acta-online.de, 24.12.2003. ADM (2001). Arbeitskreis deutscher Markt- und Sozialforschungsinstitute e.V., Frankfurt am Main (ADM): Standards zur Qualitätssicherung für Online-Befragungen, Ausgabe Mai 2001. (Hrsg. ADM, ASI, BVM, D.G.O.F.) Siehe auch: 167 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de URL: http//www.adm-ev.de/homepage/html im Menü: Qualitätsstandards; sowie im Menü: Richtlinien: Richtlinie für Online-Befragungen. Download: PDFDatei, 24.12.2003. AGIREV. Arbeitsgemeinschaft Internet Research e.V., München. Der eingetragene Verein wurde von neun Online-Vermarktern (u.a. Zeitschriftenverlage) gegründet und erhebt seit der Jahrewende 2001/02 den Online ReichweitenMonitor (ORM). URL: http//www.agirev.de, 24.12.2003. AGOF. Arbeitsgemeinschaft Online-Forschung. Gegründet 2002 von führenden deutschen Online-Vermarktern und -Werbeträgern. Der Verein setzt sich zusammen aus allen Mitgliedern der Arbeitsgemeinschaft Internet Research e.V. (AGIREV), Auftraggeberin des Online-Reichweiten-Monitors (ORM), und den Trägern und Lizenznehmern der Arbeitsgemeinschaft @facts sowie weiteren führenden Online-Vermarktern. URL: http://www.agof.de. AWA (2003). Allensbacher Werbeträger-Analyse. Hrsg.: Institut für Demoskopie Allensbach. Markt-/Media-Studie mit jährlicher Erscheinungsweise seit 1959. Seit 1997 wird die Internet-Nutzung ausgewiesen und seit 2000 ein Reichweitenwert „Nutzer pro Tag“ (Nutzungswahrscheinlichkeit). URL: http//www.awaonline.de, 24.12.2003. Axel Springer Verlag (1991). Multiplying. Mediamix. Eine Zusammenstellung internationaler Studien zum Multiplying-Effekt. Hamburg: Axel Springer Verlag, 1991. Batinic, Bernad: Der Online-Forschung fehlen bisher Qualitätskriterien. In: <e>MARKET_34/00 vom 25.8.2000. eindeutige Batinic, Bernad: Datenqualität bei internetbasierten Umfragen. In: Axel Theobald/Marcus Dreyer/Thomas Starsetzki (Hrsg.): Online-Marktforschung. Theoretische Grundlagen und praktische Erfahrungen. 2. Auflage. Wiesbaden: (Gabler), S. 144–160. Bauer Media (2001). Der Multiplying Effekt: Print plus Online. CrossmediaStudie auf Basis des TV Movie Future Package. Hamburg: (Bauer Media), o.J. (2001). Bolz, Norbert F. (1998). Abgestempelt: Zu alt! Interview mit Norbert F. Bolz. In: Hörzu, Heft 18 vom 30.4.1998, S. 6–8. BVM. Bundesverband deutscher Marktforscher e.V. URL: http//www.bvm.org 168 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de CN 7.0 (2003). Communication Networks. Markt-/Media-Studie des FOCUS Magazin Verlags. Erstmals 1995/96 als Nachbefragung zur TdWI’95. Seit CN 5.0 (2001) wird für die Online-Nutzung insgesamt ein Reichweitenwert „Nutzer pro Tag“ (Nutzungswahrscheinlichkeit) ausgewiesen. Csikszentmihalyi, Mihaly (1991). Das Flow-Erlebnis. Jenseits von Angst und Langeweile: im Tun aufgehen. Stuttgart: Klett-Cotta, 1991. (Originalausgabe: Beyond Boredom and Anxiety – the Experience of Play in Work and Games. San Francisco, Washington, London: Jossey-Bass-Publishers, 1975.) Fittkau & Maaß (2001). Internet-Anfänger surfen anders. In: Context 05/01, vom 13. März 2001, S. 12. GfK Online-Monitor. Seit Jahreswende 1997/98 halbjährlich durchgeführte repräsentative Telefonumfrage (CATI) unter 8000 Personen im Alter von 14 bis 69 Jahre. Ab der 3. bis zur 6. Welle wurden Nutzungsanteile von bis zu 80 Online-Angeboten nach dem MA-Modell erhoben, die gemäß Auftraggeberbeschluss nicht als Reichweiten publiziert wurden. Göritz, Anja; Reinhold, Nicole und Batinic, Bernad: Marktforschung mit OnlinePanels: State of the Art. In: Planung & Analyse 3/2000, S. 62–67. Gormley, William T. jr. (1976). The Effects of Newspaper-Television CrossOwnership on News Homogenity. Capel Hill: University of North Carolina, 1976. Cross-Ownership-Verhältnisse auf lokaler/regionaler Ebene führten in den USA zur Einschränkung publizistischer Vielfalt. Grüne, Heinz: Online und Online-Forschung in Deutschland – eine schwierige Kombi-Nation?! In: Planung & Analyse 1/98, S. 10–13. INFOnline. Im Jahr 2002 aus der IVW ausgegründete GmbH, Gesellschafter sind die Medienverbände BDZV, DMMV, VDZ, VPRT und andere Verbände. URL: http://www.infonline.de, 24.12.2003. IVW. Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern e.V. IVW-Online weist monatlich Kontakt-Reichweiten in Form von Visits und Page-Impressions für alle registrierten Online-Angebote/ Netzwerke/Vermarktungsgemeinschaften aus. URL: http://www.ivwonline.de, im Menü: Daten, im Untermenü: SZM, 24.12.2003. Luhmann, Niklas (1995). Die Realität der Massenmedien. Opladen (Westdeutscher Verlag), 19952. 169 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de MA (2003). Media Analyse. Hrsg.: Arbeitsgemeinschaft Media Analyse e.V. (AG.MA), und Media Micro Census GmbH. Die MA erhebt seit 2001 (Trend Herbst) die Internet-Nutzung, weist aber keine Reichweiten aus. URL: http:// www.agma-mmc.de, 24.12.2003. MMXI. Jupiter MMXI Deutschland. Joint Venture von Jupiter Media Metrix (USA) und den europäischen Marktforschungsunternehmen GfK AG, Ipsos S.A. und der Observer Group. Anbieter eines NetMetrix-Panels in Deutschland seit September 1999. URL: http://www.jupitermmxi.com, Link: Die Top 10, NutzerReichweiten der Top Ten Properties und Domains, 10.03.2002. Mosmann, Helmut (1999). PAPI - CAPI - CATI: Ambivalenter technischer Fortschritt in der Datenerhebung. In: planung & analyse 1/99, S. 50–55. NetRatings. Nielsen//NetRatings im VNU Konzern. Anbieter eines NetMetrix-Panels in Deutschland seit Oktober 2000. URL: http://www.nielsennetratings.com., Menü: Research Findings, Link: International, Link: Germany (auch URL: http://www.netratings.com/corporate/corp_hot_off_the_net_i.jsp# germany), Nutzer-Reichweiten der Top Ten Properties des aktuellen Monats, 24.12.2003. NetValue. NetValue SA. Paris. Anbieter eines NetMetrix-Panels in Deutschland seit Oktober 1999. URL: http://www.netvalue.com, im Menü: Hot News, Untermenü: Top Rankings. Nutzer-Reichweiten der Top Ten Properties und Domains für jeden Monat ab Januar 2000, 10.03.2002. Nowak, Thomas P., Hoffman, Donna L. (1998). Measuring the Flow Construct in Online Environments: A Structural Modeling Approach. Project 2000, Owen Graduate School of Management, Vanderbilt University, Yiu-Fai Yung, L.L. Thurstone Psychometric Laboratory, UNC Chapel Hill, May 1998. Online – Offline. Hrsg.: Spiegel-Verlag, Hamburg 1997 und Online – Offline 2 von 1999. URL: http://www.media.spiegel.de, 24.12.2003. Online-Marktforschung. Theoretische Grundlagen und praktische Erfahrungen. Hrsg. v. Axel Theobald, Axel Dreyer, Thomas Starsetzki. Wiesbaden: (Gabler Verlag), 2001 (1. Auflage) und 2003 (2. überarbeitete und erweiterte Auflage). Online Research. Methoden, Anwendungen und Ergebnisse. (Internet und Psychologie. Neue Medien in der Psychologie. Band 1) Hrsg. v. Batinic, Bernad u.a. Göttingen: Hogrefe Verlag für Psychologie, 1999. ORM (2003). Online Reichweiten Monitor 2003 II. Hrsg.: Arbeitsgemeinschaft 170 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Internet Research e.V. (AGIREV). Online-Markt-/Media-Studie, erstmals veröffentlicht am 6.3.2002. Die erste Halbwelle basiert auf 6500 Interviews. Mit der zweiten Halbwelle ab Juni werden zweimal jährlich rollierend auf 13 000 Interviews die Reichweiten von Online-Angeboten auf Basis „Nutzer pro Woche“ sowie die Online-Nutzung insgesamt auf Basis „Nutzer pro Woche“ und „Nutzer pro Tag“ zzgl. zu Hause und außer Haus ausgewiesen. Siehe URL: http//www.agirev.de im Menü: ORM 2003 II: Codeplan. Download: PDF-Datei, 24.12.2003; Mediazählung (mittels MDS Mediaplanungssoftware auch unter URL: http://193.7.254.184/start/agirev/), Ergebnisse Download: EXCEL-Datei, 24.12.2003. Reigber, Dieter (Hrsg.): Frauen-Welten. Marketing in der postmodernen Gesellschaft – ein interdisziplinärer Forschungsansatz. Düsseldorf: (ECON), 1993. Reigber, Dieter: Der Einsatz von Zielgruppenmodellen als Instrument für das Anzeigenmarketing. In: Scherer, Helmut und Brosius, Hans Bernd (Hrsg.): Zielgruppen, Publikumssegmente, Nutzergruppen. Beiträge aus der Rezeptionsforschung. München: (R. Fischer Verlag), 1997 (Angewandte Medienforschung; Bd. 5), S. 114–140. Reigber, Dieter: Markt- und Mediaforschung über das Internet. Veröffentlichte Präsentation zu den Daten des GfK Online-Monitors 2. Welle im Sommer 1998. Hrsg. Interactive Media (Axel Springer Verlag), Hamburg. Reigber, Dieter: Web Nutzungsmotiv-Studie. Heavy User geben Auskunft. URL: http://www.interactivemedia.de/home_f/index.html im Menü: Service, Untermenü: Studien, Link: Heavy-User-Studie. Wie muss eine Website gestaltet sein, damit sie der User nutzt? Download: Powerpoint-Datei, 10.03.2002. Reigber, Dieter; Spohrer, Michael: Research Strategies in Fragmented Media Markets. In: Worldwide Readership Research Symposium 9. Florence 1999. Session Papers. Ed. BMRB International and Ipsos-RSL. London, 1999, pp. 209–216. Reigber, Dieter und Spöhrer, Jochen: Agentenbasierte Marktforschung. In: Axel Theobald, Marcus Dreyer, Thomas Starsetzki (Hrsg.): Online-Marktforschung. Theoretische Grundlagen und praktische Erfahrungen. Wiesbaden: Gabler, S. 391–406. Reigber, Dieter und Frost, Carola: Online-Reichweitenforschung in Deutschland. In: Axel Theobald, Marcus Dreyer, Thomas Starsetzki (Hrsg.): OnlineMarktforschung. Theoretische Grundlagen und praktische Erfahrungen. 2. Auflage. Wiesbaden: (Gabler), S. 115–131. 171 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Ring, Erp: Signale der Gesellschaft. Psychologische Diagnostik in der Umfrageforschung. Göttingen, Stuttgart: (Verlag für Angewandte Psychologie) (Hogrefe), 1992. SevenOne Interactive: @facts extra. Online-Nutzer-Typen. URL: http:// www.71i.de, 24.12.2003. SevenOneMedia: Semiometrie. Der Zielgruppe auf der Spur. URL: http:// www.sevenonemedia.de/research 24.12.2003. SevenOneMedia: Mediaplanung mit Semiometrie. Top Thema August 2002. URL: http://www.sevenonemedia.de/research/zielgruppen/semiometrie/mediaplanung/ index.php PDF-Download 24.12.2003. Sinus Sociovision, Heidelberg. Sinus Milieus. URL: http://www.sociovision.com 24.12.2003. Spiegel Verlag: Yellomiles. Crossmedia Case Study. Chartpräsentation Hrsg.: Spiegel Gruppe, Hamburg: 2003. TdWI: Typologie der Wünsche Intermedia 1995 bis 2001. Hrsg. v. TdW Intermedia GmbH & Co.KG, Offenburg (BAC Burda Advertising Center GmbH der Hubert Burda Medien). Bereits 1995 konnte der Online-Nutzeranteil (QuasiReichweite) bestimmt werden, und seit der Trendwelle TdWI 99/2000 wird ein Reichweitenwert für „Online-Nutzer pro Tag“ (Nutzungswahrscheinlichkeit) ausgewiesen. VDZ: Handbuch Crossmedia Werbung Hrsg. v. Verband Deutscher Zeitschriftenverleger. Berlin: VDZ, 2003. VuMA: Verbraucher- und Medienanalyse. Hrsg. ARD-Werbung, ZDF-Werbefernsehen und Radio Marketing Service (RMS). Markt-/Media-Studie mit jährlicher Erscheinungsweise seit 1995. Sie dient als Ergänzung zur TV-/Radio-Mediaplanung. In der aktuellen VuMA 2003 werden auch Fragen zum Online-Nutzungsverhalten gestellt. URL: http://www.vuma.de, 24.12.2003. Wenzel, Olaf: Webdesign, Informationssuche und Flow. Nutzerverhalten auf unterschiedlich strukturierten Websites. Reihe: Electronic Commerce; 6. Lohmar, Köln: (Josef Eul Verlag), 2001. ZAW. Rahmenschema für Werbeträger-Analysen. Hrsg.: Zentralverband der deutschen Werbewirtschaft. Bonn, (Edition ZAW), 1994. 172 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Reichweitenermittlung für Online- und andere Medien – Forschungskonzept und Erkenntnisse – Von Jochen Hansen und Johannes Schneller Zur Einführung Mit der rasanten Ausbreitung des Internet ab Mitte der 1990er-Jahre wurden auch schnell Reichweiten-Messungen für die Internet-Angebote gefordert und eingeführt. Dabei kann man internetseitenbezogene und nutzerbezogene Ansätze unterscheiden. • Die seitenbezogenen Messungen erfolgen technisch, sie erfassen als wichtigste Merkmale: die Zahl zusammenhängender Besuche der einzelnen WebAngebote (Visits) sowie die Anzahl der Seiten, die bei den Visits aufgerufen werden (Page-Impressions). Dabei werden aber allein Nutzungsvorgänge erhoben, aus ihnen lässt sich nicht darauf schließen, in welchem Grad es sich dabei um dieselben oder verschiedene Nutzer handelt (also wie groß die Brutto- und Nettoreichweiten sind) und durch welche Merkmale sich die Nutzer auszeichnen, sich von denen anderer Angebote abheben. • Der nutzerbezogene Ansatz ermittelt hingegen exakt, von wie vielen und welchen Personen ein Online-Angebot genutzt wird, welche Merkmale für seine Nutzer besonders prägend sind, wodurch diese sich von den Nutzern konkurrierender Angebote unterscheiden. Wie für Printmedien in der Regel die IVW-Messungen zur verkauften und verbreiteten Auflage nicht ausreichen, um ihre Leistungsfähigkeit im einzelnen nachzuweisen, wird auch die Leistungsfähigkeit der Online-Angebote nicht ausreichend durch rein seitenbezogene Ermittlungen belegt. Insofern war der frühzeitige Ruf nach nutzerbezogenen Forschungsansätzen plausibel. Nutzerbezogen und repräsentativ ausgewählt Zur Untersuchungstechnik: Mit wachsender Internet-Ausbreitung wurde neben der mündlich-persönlichen, telefonischen und postalischen Erhebungstechnik auch die Befragung via Internet erwogen. Auf den ersten Blick mag daran verlocken, dass schnell beachtliche Teilnehmerzahlen erreicht werden können, man 173 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de auf Interviewer verzichten kann, sich Befragungsabläufe technisch exakt und kontrolliert steuern lassen. Das große Manko von Internet-Erhebungen ist aber nach wie vor: Bis heute hat sich kaum etwas daran geändert, dass die Teilnehmer an Online-Erhebungen weit überdurchschnittlich internetmotiviert sind, sie damit also keineswegs als repräsentativ für alle Internet-Nutzer angesehen werden dürfen. Die Allensbacher Computer- und Technik-Analyse (ACTA1) prüft mehrmals im Jahr die Bereitschaft, sich online befragen zu lassen – und diese hat sich in den letzten Jahren keineswegs erhöht, sondern nimmt von Jahr zu Jahr eher ab. Anders als bei Face-to-Face-Befragungen, bei der die breite Mehrheit der Bevölkerung wie auch der Internet-Nutzer bereit ist, sich erneut befragen zu lassen (in der AWA 2003 63 Prozent der Bevölkerung „sehr gern“ oder „gern“, 67 Prozent sind es unter den Online-Nutzern), erklärt die Mehrheit der Internet-Nutzer ausdrücklich, daß man sich nicht an online durchgeführten Befragungen beteiligen will (lediglich für ein Drittel kam oder käme eine Beteiligung in Betracht). Übersicht 1 Wie gravierend die Bereitschaft, sich online befragen zu lassen, bereits sinkt, wenn man nicht mehrmals täglich, sondern nur einmal täglich oder weniger häufig im Internet ist – und dies trifft auf mehr als drei Viertel der Onliner zu –, belegt Schaubild 2. 1 Bis 2002 war ACTA die Abkürzung für Allensbacher Computer- und Telekommunikations-Analyse, seit 2003 heißt sie Allensbacher Computer- und Technik-Analyse. 174 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Übersicht 2 Auch wenn man bei über das Internet erhobenen Daten versucht, die Relationen von starken und schwachen Internet-Nutzern so zu gewichten, wie sie sich in repräsentativen Studien zeigen (das heißt, die schwach nutzenden Befragten werden höher, die starken Nutzer heruntergewichtet), löst das die Grundschwäche nicht. Mögen sich dadurch auch Randergebnisse realistischer darstellen, so reduziert eine Gewichtung die effektive Stichprobengröße (sie ist wichtig für alle Signifikanzberechnungen), und dies umso mehr, je stärker entscheidende Merkmale der Mediennutzung anzupassen sind. Und auch sehr gravierende Gewichtungen können die Struktur von hoch internetmotivierten Befragten nur sehr begrenzt korrigieren. Befunde aus Online-Befragungen zu Medienreichweiten und Strukturen ihrer Nutzer wären deshalb stets anzweifelbar, damit kann man sie nicht als ernsthafte Grundlage für Reichweitenmessungen der Online- (aber auch der Print-) Medien ansehen. Online-Nutzer – in breiten bevölkerungsrepräsentativen Markt-Media-Studien Allgemein akzeptierte Reichweitenstudien zur Streuplanung der Online-Angebote müssen stets von einem repräsentativen Querschnitt aller Internet-Nutzer ausgehen, das heißt: Personen, die das Internet häufig, gelegentlich oder selten 175 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de nutzen, müssen hier in ihren realistischen Anteilen vertreten sein. Dies gelingt am gültigsten und zuverlässigsten in Studien, die sich an die Bevölkerung insgesamt richten – und innerhalb derer die Internet-Nutzer abgegrenzt werden. Diesem Ansatz folgen in Deutschland zum Beispiel der Online ReichweitenMonitor der Arbeitsgemeinschaft Internet Research e.V. (AGIREV), oder vom Allensbacher Institut speziell die ACTA, und auch die Allensbacher Marktund Werbeträger-Analyse (AWA) erfasst wichtige Kerndaten zum Internet. Die ACTA wird seit 1997 jährlich in zwei Wellen auf einer Basis von rund 10 000 Face-to-Face-Interviews erhoben, sie wendet sich an einen repräsentativen Querschnitt der Bevölkerung im Alter von 14 bis 64 Jahren. • In dieser Studie wurden im Frühjahr 2003 mit 53,5 Prozent mehr InternetNutzer denn je abgegrenzt, zur Ausbreitung dieses Kreises siehe Schaubild 3. • Schaubild 4 zeigt als wichtigen Rahmenbefund zur Internet-Beziehung, dass 2003 mit fast 50 Prozent der Onliner mehr denn je von ihnen auch täglich im Internet sind (allerdings noch immer die Hälfte nicht täglich). • Schaubild 5 belegt, dass man pro Nutzungstag jedoch nicht länger im Internet ist, nach wie vor meistens weniger als eine Stunde. Übersicht 3 176 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Übersicht 4 Übersicht 5 177 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Wie man mit dem Internet im einzelnen umgeht, erfasst die ACTA durch zahlreiche weitere Fragen, zum Beispiel, wie häufig man das Internet für verschiedene Zwecke und Inhalte nutzt, zu welchen Käufen es per Internet kommt, in welchen Handelskanälen, welche Zahlungsform man bei Online-Käufen präferiert bis hin zur Ermittlung, inwieweit man Werbebanner anklickt. Mit diesen Merkmalen lassen sich Zielgruppen sehr konkret abgrenzen und anschaulich illustrieren. Im Folgenden konzentrieren wir uns jedoch primär auf Ermittlungen der Reichweiten der Online-Angebote, weit über 100 wurden in der ACTA seit 1998 erfasst. Reichweitenermittlung der Online-Angebote Zur Ermittlungsform: Die Erhebung erfolgt mithilfe von Kärtchen zur Identifikation, auf denen die kennzeichnenden Logos der Internet-Angebote abgebildet sind – vergleichbar, wie die Reichweiten und Nutzerkreise von Print- oder elektronischen Werbeträgern in den meisten Markt-Media-Studien erhoben werden. Dazu werden zwei Grundfragen gestellt: • eine Frequenzfrage, wie häufig man das jeweilige Internet-Angebot nutzt. Fünf Abstufungen qualifizieren für den weitesten Nutzerkreis: täglich, fast täglich/mehrmals in der Woche/einmal in der Woche/ein- bis dreimal im Monat/seltener als einmal im Monat (die Restkategorien dieses Fragemodells lauten: nur dem Namen nach bekannt/unbekannt). • Der jeweils weiteste Nutzerkreis beantwortet die Recency-Frage, wann man das jeweilige Online-Angebot zuletzt genutzt hat, mit vier Ausprägungen: gestern/innerhalb der letzten sieben Tage/etwa zwei bis vier Wochen her/ länger als vier Wochen her. Ausgehend vom weitesten Nutzerkreis werden Nutzungswahrscheinlichkeiten gebildet (für einzelne Segmente, die vor allem nach den Kategorien der Frequenzfrage bestimmt werden; als Außenkriterium werden die „Nutzer in den letzten vier Wochen“ bzw. die „Nutzer in den letzten sieben Tagen“ herangezogen). Als aussagekräftige Maßstäbe liegen damit vor: • weitester Nutzerkreis, • Nutzerkreis pro Monat, • Nutzer pro Woche; je breiter der Kreis von Onlinern insgesamt wird, desto stärker orientieren sich Online-Reichweitenbewertungen auf die Anteile derer, die das Internet mindestens einmal wöchentlich nutzen. 178 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Damit werden die Reichweiten von Online-Medien in der ACTA wie die der Printmedien im Rahmen der AWA nach dem Prinzip einer zeitlich nicht einschränkenden Abfrage erhoben, bei der auch allen seltenen Nutzern der Online-Angebote die Frage nach dem letzten Kontakt gestellt wird (darauf kommen wir noch zurück). Reichweiten von Online-Angeboten 2003 Die ACTA 2003 ermittelt die Nutzerkreise von knapp 100 Internet-Angeboten und von einer ähnlich großen Zahl von (fast allen wichtigen) Printmedien und Tarifkombinationen, von einem Dutzend TV-Programmen sowie Kinobesucher; es handelt sich also um eine Multi-Media-Marktstudie, mit der Werbekampagnen intermedial geplant werden können. Die Reichweiten aller Online-Angebote dokumentiert Übersicht 6, geordnet nach den wöchentlich erreichten Anteilen unter allen Internet-Nutzern. Gezeigt werden sie aber auch für das Monatsintervall und für den weitesten Nutzerkreis sowie als Index, in welchem Grad der weiteste Nutzerkreis die jeweiligen Angebote wöchentlich oder monatlich nutzt. Bezogen auf die einzelnen Angebote zeigt sich hier zum Beispiel, • dass man die insgesamt am häufigsten besuchten Online-Angebote wie Google und T-Online auch im höchsten Grad innerhalb eines Wochenzeitraums nutzt, nämlich zu über 60 Prozent (Index, bezogen auf den weitesten Nutzerkreis), • dass die insgesamt auch noch stark vertretenen Adressen Ebay oder Yahoo Deutschland aber in deutlich geringeren Anteilen wöchentlich genutzt werden (zu 54 bzw. 38 Prozent innerhalb des weitesten Nutzerkreises). • Oder zu den Online-Angeboten von Printmedien, gemessen an dem Maßstab der wöchentlichen Reichweite: hier erreichen die Internet-Angebote der lokalen und regionalen Tageszeitungen mit wöchentlich 13,4 Prozent am meisten Internet-Nutzer, gefolgt von Bild.de mit 6,2 Prozent, Spiegel Online mit 5,3 Prozent sowie den Online-Angeboten von FOCUS (4,4 Prozent), Kicker (4,0 Prozent), Stern (3,9 Prozent), Computer Bild und Chip (jeweils 3,4 Prozent). Alle übrigen in der ACTA erhobenen Online-Angebote von Printmedien erreichen wöchentlich weniger als 3 Prozent. Damit nehmen die OnlineAngebote von Printmedien alles in allem eher einen Mittel- als einen Spitzenplatz in der Hitliste der genutzten Internet-Adressen ein. • Schließlich lässt sich aus der Summenzeile ablesen, dass die Internet-Nutzer im Durchschnitt bei 179 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de • rund 16 dieser Angebote zum weitesten Nutzerkreis gehören (genau 15,9), • dass sie rund zehn Angebote mindestens monatlich nutzen (9,7) • und bei rund fünf Angeboten zu den wöchentlichen Nutzern gehören (5,2). Reichweite der Online-Angebote 2003 Onliner, die Dienst/Angebot nutzen – Anteile in % – – x – – x – x – – – – – x x x – – – – pro Woche Google Deutschland 51,5 T-Online.de 41,5 Ebay 38,2 Yahoo Deutschland 24,4 Web.de 21,8 Freenet.de 19,8 AOL.de 16,5 AOL (abonnierter Dienst) 16,1 Lycos 16,0 GMX 13,8 Angebot einer lokalen oder reg. Tagesztg. 13,4 Die Bahn DB 12,4 MSN.de 10,8 Fireball 9,6 Netscape.de 8,7 Wetter.com 8,6 Wissen.de 7,6 Geizkragen.de 7,5 Wetteronline.de 6,3 Bundesliga.de 6,3 Bild.de 6,2 RTL World 5,3 Spiegel Online 5,3 L'Tur 5,2 ADAC online 5,0 AutoScout24 5,0 MTV.de 4,9 Kostenlos.de 4,6 Focus Online 4,4 Sport1 4,4 Tui.de 4,3 AltaVista 4,1 n-tv online 4,1 Mobile.de 4,0 Kicker online 4,0 Stern.de 3,9 Falk 3,5 Computer Bild online 3,4 Chip Online 3,4 Boerse-online.de 3,3 ProSieben Online 3,1 SAT.1 online 3,0 Viva.tv 3,0 CompuServe.de 2,9 Tiscali 2,9 Sueddeutsche.de 2,7 PC WELT.de 2,7 Giga.de 2,6 Zeit.de 2,5 CompuServe (abonnierter Dienst) 2,4 Autobild.de 2,3 Boerse.de 2,3 insgesamt im (weitester Monat Nutzerkreis) 65,8 74,4 51,6 64,4 56,9 70,9 44,0 64,0 30,9 43,0 29,5 42,5 23,6 35,8 19,8 25,6 29,7 48,0 18,5 26,9 22,9 34,0 29,6 54,1 18,3 28,0 21,4 37,2 12,6 22,5 18,1 27,7 19,5 33,0 15,2 26,5 12,6 20,7 10,3 15,2 12,9 19,9 12,7 23,1 11,7 20,5 13,9 32,5 14,2 30,1 13,7 27,3 9,9 14,9 11,4 20,9 11,6 20,1 7,6 11,4 12,9 31,6 10,1 20,7 7,4 13,1 9,9 17,4 6,4 10,1 10,8 20,7 8,7 16,1 10,1 17,2 8,4 13,3 6,1 9,5 8,6 17,2 9,0 18,0 7,6 13,2 6,6 14,5 4,9 9,6 7,0 12,2 5,7 9,7 4,7 7,3 6,4 11,4 3,8 6,7 6,7 11,5 4,5 6,6 Index pro Woche 69 64 54 38 51 47 46 63 33 51 39 23 39 26 39 31 23 28 30 41 31 23 26 16 17 18 33 22 22 39 14 20 31 23 40 19 22 20 26 35 18 17 23 20 30 22 28 36 22 36 20 35 insgesamt im (weitester Monat Nutzerkreis) 88 100 80 100 80 100 69 100 72 100 69 100 66 100 77 100 62 100 69 100 67 100 55 100 65 100 58 100 56 100 65 100 59 100 57 100 61 100 68 100 65 100 55 100 57 100 43 100 47 100 50 100 66 100 55 100 58 100 67 100 41 100 49 100 56 100 57 100 63 100 52 100 54 100 59 100 63 100 64 100 50 100 50 100 58 100 46 100 51 100 57 100 59 100 64 100 56 100 57 100 58 100 68 100 .../ 180 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Onliner, die Dienst/Angebot nutzen – /... Anteile in % – – – – – – – – – – – – – – – – – – – – – – – – – Heise online ZDNet Deutschland Handy.de PC Games.de Cinema online Die Welt.de Comdirect Premiere Online GameStar.de Travelchannel Handelsblatt.com Ricardo.de WirtschaftsWoche.de Brigitte.de Uboot TV Movie.de PC-Shopping Online TV Spielfilm Online Bravo.de FAZ.net Financial Times Deutschland.de Edgar.de Gamigo.de Tomorrow Online Freundin online Consors Ciao.com Jamba! Online Fit for fun Online Teltarif.de TV Today Online Computerwoche Online Finanzen.net Onvista Yam.de Wallstreet:online Manager Magazin online Qualimedic TecChannel.de Finanztreff.de Amica Online Handelsblatt Junge Karriere Online DMEuro.com Max Online Macwelt Online Vogue.com Deutschland Index pro Woche 2,1 2,1 2,0 1,9 1,8 1,8 1,8 1,7 1,7 1,6 1,5 1,5 1,4 1,4 1,4 1,4 1,3 1,3 1,3 1,3 1,3 1,3 1,2 1,1 1,1 1,1 1,1 1,0 0,9 0,9 0,8 0,8 0,8 0,8 0,7 0,7 0,5 0,5 0,5 0,5 0,4 0,4 0,4 0,3 0,3 0,2 insgesamt im (weitester Monat Nutzerkreis) 5,0 7,2 4,2 6,5 5,6 11,6 4,8 9,2 6,1 11,9 5,5 10,1 3,4 6,2 3,6 6,3 3,2 5,6 4,8 10,6 4,3 7,1 4,2 9,9 3,4 6,9 3,4 6,9 3,2 7,2 3,1 6,5 3,7 6,2 3,6 6,8 3,5 6,9 3,0 6,0 2,8 5,3 2,4 5,5 2,4 4,6 4,0 9,3 2,6 5,2 2,5 4,6 2,2 4,6 2,9 8,6 3,5 8,3 2,3 5,1 2,7 5,8 2,3 5,0 1,7 2,5 1,6 2,8 2,2 5,0 1,8 3,5 1,4 3,1 1,4 2,8 1,2 2,5 1,1 2,1 1,6 3,7 1,3 3,6 1,3 2,2 1,9 4,7 1,2 2,4 1,2 2,4 518,8 971,8 1593,5 33 61 100 Index für 98 Internet-Angebote pro Woche 29 32 17 21 15 18 29 27 30 15 21 15 20 20 19 22 21 19 19 22 25 24 26 12 21 24 24 12 11 18 14 16 32 29 14 20 16 18 20 24 11 11 18 6 13 8 33 insgesamt im (weitester Monat Nutzerkreis) 69 100 65 100 48 100 52 100 51 100 54 100 55 100 57 100 57 100 45 100 61 100 42 100 49 100 49 100 44 100 48 100 60 100 53 100 51 100 50 100 53 100 44 100 52 100 43 100 50 100 54 100 48 100 34 100 42 100 45 100 47 100 46 100 68 100 57 100 44 100 51 100 45 100 50 100 48 100 52 100 43 100 36 100 59 100 40 100 50 100 50 100 61 100 Online-Angebote von – Printmedien x elektronischen Medien Basis: Internetnutzer im Alter von 14 bis 64 Jahre Quelle: ACTA Übersicht 6 181 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Meistens sporadische Nutzung Dass vom weitesten Nutzerkreis lediglich rund ein Drittel zu den wöchentlichen Nutzern gehört, die meisten also eher gelegentliche oder seltene Nutzer sind, trifft keineswegs nur für die Online-Medien zu, sondern auch für die meisten Printmedien. Zum Beispiel wird der Stern von 19 Prozent des weitesten Leserkreises regelmäßig oder häufiger gelesen, 38 Prozent lesen ihn gelegentlich und 43 Prozent selten; für Der Spiegel lauten die Relationen 23, 35 und 42 Prozent, für FOCUS 20, 35 und 45 Prozent. Meistens nicht regelmäßige Leser Übersicht 7 Die sporadischen Nutzer sind deshalb besonders wichtig, weil ihre Bedeutung im Printbereich in den letzten Jahrzehnten erheblich zugenommen hat, und zwar parallel zur gewaltig gestiegenen Zahl von Printtiteln und einer insgesamt eher stagnierenden Dauer der Printmediennutzung. Dem muss ein Reichweitenerfassungsmodell gerecht werden, wobei die Grundlagenforschung zeigt, dass durch zeitlich begrenzte Filterfragen die unregelmäßigen Leser von Printmedien überdurchschnittlich davon abgehalten werden, sich als Nutzer im Erscheinungsintervall einzustufen; deshalb ermitteln die Allensbacher Mediastudien die Reichweiten ohne Fragen mit einem zeitlich bestimmten Filter für die RecencyFrage. Wie gravierend sich Reichweitenmessungen je nach Fragemodell unter182 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de scheiden können, ist experimentell belegt, siehe z.B. Tennstädt, Friedrich/ Hansen, Jochen: Validating the Recency and Through-the-Book-Techniques. In: Harry Henry (Hrsg.): Readership Research Symposium: Theory and Practice. Proceedings of the First International Symposium New Orleans 1981. London 1982, S. 196–221. Reichweitenentwicklung bei Online-Angeboten von Printmedien Bei rund der Hälfte der 2003 erfassten Online-Angebote handelt es sich um solche von Medien, die es unter demselben Namen auch als Print- oder elektronisches Medium gibt. Eine Reihe davon wird in der ACTA seit 1998 erfasst, für 15 Online-Angebote von Printtiteln zeigt Übersicht 8 die Trends in der Bevölkerung insgesamt – wobei sich die meisten Reichweiten eindeutig positiv entwickelten. Wie sich die Reichweiten der Online-Angebote von ausgewählten Printmedien in der Bevölkerung entwickelten 1998 % Bevölkerungszahl insgesamt 1999 Mio. % 51,1 2000 Mio. % 50,9 Mio. 2001 % 51,1 Mio. 2002 % 50,9 Mio. 2003 % 50,7 Mio. 50,7 Weitester Nutzerkreis der Online-Angebote von – Focus 3,6 1,84 4,4 2,24 6,8 3,47 6,6 3,33 8,0 4,03 10,7 5,46 Spiegel 2,9 1,46 4,0 2,03 5,4 2,77 5,7 2,91 7,7 3,89 11,0 5,56 Stern 2,0 1,03 2,8 1,43 4,5 2,31 5,8 2,93 7,8 3,94 11,1 5,62 TV Spielfilm 1,6 0,80 1,4 0,72 2,1 1,10 3,3 1,67 3,9 1,98 3,6 1,85 – – – – 3,0 1,53 4,8 2,45 6,7 3,38 6,4 3,23 Cinema Fit for fun – – – – 1,8 0,92 3,2 1,66 4,8 2,41 4,4 2,25 Tomorrow – – – – 3,5 1,79 4,5 2,29 4,2 2,12 5,0 2,52 Chip 2,4 1,24 2,3 1,18 2,9 1,48 3,5 1,77 4,7 2,38 7,1 3,61 PC Welt 1,9 0,97 2,4 1,21 2,7 1,36 4,3 2,18 5,2 2,63 5,2 2,63 Wirtschaftswoche 1,3 0,67 1,8 0,92 2,1 1,06 2,6 1,34 2,9 1,48 3,7 1,87 Die Zeit 1,3 0,69 1,3 0,81 1,3 0,92 2,9 1,49 3,9 2,00 6,1 3,09 Handelsblatt 1,5 0,77 1,9 0,95 2,1 1,07 2,7 1,39 3,4 1,75 3,8 1,93 – – 1,1 0,57 1,8 0,93 3,3 1,65 4,7 2,40 6,6 3,31 Die Welt 1,4 0,70 1,3 0,66 1,6 0,81 2,3 1,15 3,7 1,89 5,4 2,74 Bild 1,4 0,69 1,4 0,73 2,7 1,39 4,2 2,14 7,3 3,70 10,7 5,40 44,3 22,91 59,6 30,35 78,9 Süddeutsche Zeitung 39,98 100,6 51,08 – = in diesem Jahr nicht erhoben Basis: Bevölkerung im Alter von 14 bis 64 Jahre Quelle: ACTA 1998 bis 2003 Übersicht 8 Soweit die Gesamtentwicklungen; wenn dabei die meisten Online-Angebote auch eine absolut erhöhte Nutzerzahl haben, so bedeutet dies keineswegs automatisch, dass damit auch ihre Anteile von erreichten Onlinern zunehmen. Diese Reichweiten verringerten sich für die meisten Angebote in den letzten Jahren 183 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de sogar, und zwar trotz absolut meistens noch gestiegener Nutzerzahlen. Dies ist natürlich nur möglich, weil sich die Grundgesamtheit der Internet-Nutzer insgesamt von Jahr zu Jahr deutlich erhöht hat. Übersicht 9 dokumentiert die Entwicklung der absoluten Nutzerzahlen und der Reichweiten unter den Onlinern. Wie sich die Reichweiten der Online-Angebote von ausgewählten Printmedien bei Internetnutzern entwickelten 1998 % 1999 Mio. % 6,01 Zahl der Internetnutzer 2000 Mio. % 8,58 2001 Mio. % 14,7 2002 Mio. % 20,3 2003 Mio. % 23,3 Mio. 27,1 Weitester Nutzerkreis der Online-Angebote von – Focus 30,6 1,84 26,1 2,24 23,7 3,47 16,4 3,33 17,3 4,03 20,1 5,46 Spiegel 24,3 1,46 23,7 2,03 18,9 2,77 14,3 2,91 16,7 3,89 20,5 5,56 5,62 Stern 17,1 1,03 16,6 1,43 15,8 2,31 14,4 2,93 16,9 3,94 20,7 TV Spielfilm 13,2 0,80 8,4 0,72 7,5 1,10 8,2 1,67 8,5 1,98 6,8 1,85 10,4 1,53 12,0 2,45 14,5 3,38 11,9 3,23 2,25 Cinema – – – – Fit for fun – – – – 6,3 0,92 8,2 1,66 10,3 2,41 8,3 Tomorrow – – – – 12,2 1,79 11,3 2,29 9,1 2,12 9,3 2,52 Chip 20,6 1,24 13,8 1,18 10,1 1,48 8,7 1,77 10,2 2,38 13,3 3,61 PC Welt 16,1 0,97 14,1 1,21 9,3 1,36 10,7 2,18 11,3 2,63 9,7 2,63 Wirtschaftswoche 11,2 0,67 10,7 0,92 7,2 1,06 6,6 1,34 6,3 1,48 6,9 1,87 Die Zeit 11,4 0,69 9,4 0,81 6,3 0,92 7,3 1,49 8,6 2,00 11,4 3,09 Handelsblatt 12,8 0,77 11,0 0,95 7,3 1,07 6,8 1,39 7,5 1,75 7,1 1,93 6,6 0,57 6,3 0,93 8,1 1,65 10,3 2,40 12,2 3,31 Süddeutsche Zeitung – – Die Welt 11,6 0,70 7,7 0,66 5,5 0,81 5,7 1,15 8,1 1,89 10,1 2,74 Bild 11,5 0,69 8,5 0,73 9,5 1,39 10,5 2,14 15,9 3,70 19,9 5,40 156,3 22,91 149,2 30,35 171,5 39,98 188,2 51,08 – = in diesem Jahr nicht erhoben Basis: 14- bis 64jährige Internetnutzer Quelle: ACTA 1998 bis 2003 Übersicht 9 Hohe Affinität zu Online- und Print-Angebot So weit zu den Reichweitenentwicklungen der Online-Angebote von Printmedien insgesamt. Da zu diesen Internet-Angeboten in der ACTA auch die Reichweiten der entsprechenden Printmedien erfasst wurden, ist außerdem verfolgbar, ob und inwieweit sich Print- und Online-Nutzung der gleichen Medienmarke befruchten. Der Zusammenhang, dass die Printnutzer unter den Onlinern auch hochgradig das Internet-Angebot ihres Titels nutzen, wurde schon sehr frühzeitig sichtbar. Und er ist nach wie vor sehr eng, • wenn zum Beispiel Leser im Erscheinungsintervall des Wochenmagazins Der Spiegel zu rund 15 Prozent auch zu den wöchentlichen Nutzern von Spiegel-Online zählen, 184 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de • die Nichtleser pro Nummer des Spiegel hingegen nur zu 2 Prozent. • Für zwölf Titel ergibt sich hier im Durchschnitt, dass die Internet-Angebote zehnmal so häufig von den Lesern pro Nummer wöchentlich genutzt werden wie von den Nichtlesern pro Nummer. Übersicht 10 zeigt, wie wenig sich an diesem Zusammenhang grundsätzlich seit den ersten Messungen zu Online-Reichweiten verändert hat. Und ein klarer Zusammenhang besteht auch noch – allerdings weniger eng –, wenn man ihn auf die monatlichen oder weitesten Nutzerkreise der Online-Medien bezieht. Siehe näheres dazu und zur besonderen Qualität der Onliner als Mediennutzungs-Zielgruppe Hansen, Jochen: Print Media Internet Portals: A Boon or Bust for Print Media Consumption? In: Worldwide Readership Research Symposium. Venice 2001, Session papers, S. 377–391. Übersicht 10 Vergrößerte Nutzerkreise der Medienmarken und Crossmedia-Kombinationen Je enger diese Korrelation, desto mehr begrenzt dies naturgemäß das Wachstum des Nutzerkreises der Medienmarke. Dennoch lässt sich in der Regel von durch das Internet deutlich erweiterten Nutzerkreisen ausgehen: Jeweils auf Leser pro 185 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Ausgabe des Printobjekts bezogen, nimmt der durch das Internet von der Marke erreichte Verbraucherkreis zum Beispiel für die drei Magazine zum Zeitgeschehen Der Spiegel, Stern, FOCUS • bei jeweils wenigstens wöchentlichen Internet-Kontakten zwischen 6 und 14 Prozent zu, trotz gleicher Zeitschriftengattung also nicht unbedingt im gleichen Ausmaß. • Geht man von zumindest monatlichen Internet-Kontakten aus, so erreichen diese drei Mediamarken zwischen 19 und 35 Prozent mehr Nutzer als allein durch ihre Printobjekte; der Nutzerkreis der Marke erhöht sich also beachtlich, aber auch hier keineswegs für jede Mediamarke im gleichen Grad. Interessiert also allein der Kontakt zur Marke eines Printmediums, so ist dabei jeder zu berücksichtigen, der entweder deren Print- oder das Online-Angebot nutzt. Die Crossmedia-Kombinationen grenzen diese Nutzerkreise für die Mediaplanung ab, das heißt jeweils diejenigen, die Leser pro Ausgabe oder aber Nutzer pro Woche des Online-Angebots sind. So kommt zum Beispiel • die „Spiegel plus Crossmedia-Kombi“ 2002 auf eine gemeinsame Reichweite der Printausgabe des Spiegel (mit 11,4 Prozent) und von Spiegel-Online (2,0 Prozent) von 12,5 Prozent (der Bevölkerung von 14 bis 64 Jahren), gegenüber der reinen Printreichweite bedeutet dies eine Steigerung um 10 Prozent; • die „Stern Crossmedia-Kombi“ erreicht mit Stern-Print (14,5 Prozent) und Stern-Online (1,3 Prozent) zusammen 15,4 Prozent (gleich 6 Prozent Steigerung der Printreichweite). Noch deutlichere Reichweitengewinne zeigen sich für speziellere Titel, etwa aus dem Computersektor: • für „Chip Crossmedia-Kombi“ ergibt sich aus 2,8 Prozent Print- und 1,6 Prozent Online-Reichweite eine von insgesamt 3,8 Prozent, das entspricht einer Steigerung um 36 Prozent gegenüber der Printreichweite; • und „PC Welt Crossmedia-Kombi“ erreicht aus 3,2 und 1,2 Prozent für Print und Online zusammen insgesamt 4,0 Prozent (eine Steigerung der Printreichweite um 25 Prozent). 186 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Übersicht 11 Online- und Print-Nutzer lesen besonders regelmäßig Logisch wäre es durchaus plausibel, wenn die Nutzer des Printtitels, die auch seinen Online-Auftritt nutzen, weniger regelmäßig zur Zeitschrift greifen als jene, die ausschließlich die Zeitschrift lesen. Dies trifft aber nicht zu, sondern eindeutig das Gegenteil: Wer als Leser pro Ausgabe eines Zeitschriftentitels auch das Online-Angebot des Titels mindestens monatlich nutzt, liest den Printtitel regelmäßiger als die Leser pro Ausgabe unter den Onlinern, die seltener oder gar keinen Kontakt zum Internet-Auftritt des Titels haben. • Zum Beispiel lesen die Print- und Online-Nutzer des Spiegel zu 28 Prozent dieses Magazin regelmäßig; wer als Onliner hingegen nur die Spiegel-Printausgabe nutzt, liest den Titel lediglich zu 17 Prozent regelmäßig; die entsprechende Relation für den Stern ist 25 zu 16 Prozent. • Ähnliches zeigt sich auch beim (noch härteren) Stichtagskriterium „Gestern in der Hand gehabt“: Zu 44 Prozent hatten die Print- und Online-Nutzer den Spiegel am Vortag in der Hand, die ausschließlichen Print-Nutzer (unter den Onlinern) nur zu 23 Prozent, 39 zu 27 Prozent betragen die entsprechenden Relationen beim Stern. 187 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Übersicht 12 Hochkarätige Print- und Online-Nutzer Die Leser mit Internet-Kontakt sind nach wie vor sehr hochklassige Nutzer des Printmediums, die Internet-Inhalte allein können ihren Bedarf an Information und Unterhaltung offensichtlich nicht ausreichend befriedigen. Und dies trifft zu, obwohl sie auch das Internet weit überdurchschnittlich breit nutzen. Die ACTA ermittelt zu fast drei Dutzend Inhalten und Nutzungszwecken im Internet jeweils, ob man sie regelmäßig oder häufiger nutzt, ab und zu, nur ganz selten oder nie. Davon nennen die Onliner • durchschnittlich 3,64 Felder, die sie regelmäßig nutzen, die Onliner, die auch Leser pro Nummer der Magazine zum Zeitgeschehen sind, jedoch deutlich mehr: • die Spiegel-Leser mit durchschnittlich 4,68 Feldern am ausgeprägtesten, gegenüber 3,42 der Nicht-Spiegel-Leser, • für FOCUS liegen die entsprechenden Werte bei 4,50 und 3,48, • für Stern bei 4,39 und 3,50. Dies gilt jedoch keineswegs für jeden Nutzungszweck. Wenn es beispielsweise um das Chatten (Unterhaltung mit anderen Nutzern) geht oder um Kontakte, die man knüpfen möchte, um das Fernsehprogramm oder Informationen über Kos188 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de metik, dann sind die Leser zumindest dieser Magazine nicht stärker als deren Nichtleser vertreten. Im Internet: Printnutzer nutzen weit überduchschnittlich Internet-Inhalte Es nutzen regelmäßig oder häufiger im InternetE-Mails Online-, Homebanking Informationen für Schule Herunterladen von Software Aktuelle Nachrichten zur Politik Nachschlagewerke Unterhaltung mit anderen Nutzern Faxe verschicken und empfangen Sportnachrichten Produktinformationen Börsenkurse Wetterbericht, Reisewetter Informationen über Reiseziele Kontakte knüpfen Nachrichten zu Computer-Themen Brancheninformationen Veranstaltungshinweise Stellenanzeigen Fahr- und Flugpläne Aktuelle Wirtschaftsmeldungen Informationen von Banken Spiele gegen Computer Zeitungs- und Zeitschriftenarchive Angebote an PKW Anlagetips Aktien kaufen und verkaufen Verkehrsinformationen Fernsehprogramm Versicherungsangebote Gesundheitstips Teilnahme an Diskussionsforen Informationen über Kosmetik Immobilienangebote Informationen über Medikamente Telefonieren über das Internet Onliner insgesamt % 63 29 22 18 14 14 12 11 11 11 10 10 10 10 10 10 9 9 9 9 8 8 5 5 5 5 4 4 3 3 3 3 2 2 2 364 Der Spiegel Nichtleser Leser pro pro Nummer Nummer % % 71 62 32 28 28 21 21 18 27 11 20 12 11 12 13 11 13 10 14 10 15 9 14 9 14 10 10 10 14 9 14 9 14 8 9 9 14 8 16 8 10 8 7 8 12 4 4 5 8 4 7 4 6 4 4 4 5 3 5 3 4 2 2 3 4 2 4 2 4 2 468 342 Focus Nichtleser Leser pro pro Nummer Nummer % % 68 63 34 28 28 21 20 18 22 13 19 13 11 12 15 11 12 10 13 10 15 9 14 10 13 10 10 10 15 9 14 9 11 9 9 9 12 8 13 8 11 8 6 8 8 5 6 5 8 5 7 4 5 4 4 4 6 3 3 3 4 3 2 3 4 2 3 2 4 2 450 348 Stern Nichtleser Leser pro pro Nummer Nummer % % 71 62 33 28 25 22 19 18 20 13 18 13 11 12 15 11 13 10 14 10 13 10 15 9 14 10 9 10 12 9 12 9 13 9 10 9 12 8 11 9 11 8 6 8 9 5 6 5 7 5 6 4 5 4 4 4 4 3 5 3 3 3 3 3 4 2 4 2 2 2 439 350 Basis: Internetnutzer in der Bevölkerung 14 bis 64 Jahre Quelle: ACTA 2002 Übersicht 13 Tiefer Einblick durch single-source Diese engen Zusammenhänge der Mediennutzung sind deshalb besonders valide, weil hier sämtliche Daten von denselben Personen stammen, sie nach dem Single-Source-Prinzip erhoben wurden (was der jahrzehntelangen Allensbach-Philosophie in der Medienforschung entspricht). Das Single-Source-Prinzip setzt natürlich stets Grenzen, wenn man neue, ergänzende Merkmale der Mediennutzung überprüfen will – ohne die Erhebungsdauer eines Interviews auszudehnen. Umso wichtiger ist es, auch alle Erkenntnisse aus vergleichbaren deutschen und internationalen Studien zu nutzen; sollten sie Schwachpunkte der hier beschriebenen Ansätze experimentell nachweisen, würde dies auch zu veränderten Ansätzen beitragen – und damit zum Fortschritt der Reichweitenforschung. 189 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Online-Nutzung auf Kosten von Print? Zurück zu den Medienmarken: Mögen sich die Internet-Portale für viele Medien auch wirtschaftlich noch nicht rechnen: Die Nutzerkreise der einzelnen Mediamarken haben sich durch ihre Internet-Auftritte beachtlich vergrößert, und zwar ohne dass dies die Reichweite der Printmedien insgesamt beeinträchtigte (Übersicht 15). Teilweise stiegen die Reichweiten parallel zur zunehmenden Internet-Verbreitung sogar noch beachtlich – wie etwa bei den wöchentlichen Magazinen zum Zeitgeschehen (Übersicht 14). Übersicht 14 Übersicht 15 190 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Onliner mögen Mediamarken – und sind Meinungsführer Dass Medien als Print- und Online-Anbieter kraftvoll als Marke auftreten, kommt den Onlinern besonders entgegen: • In einer Phase, in der man sich generell nicht mehr so wie früher mit Markenartikeln identifiziert (1995 fanden 43 Prozent der Bevölkerung, dass sich ihr Kauf lohne, 2003 nur noch 33 Prozent), • gehören Onliner noch immer zu den überdurchschnittlich starken Anhängern. 37 Prozent gegenüber 31 Prozent unter den Nicht-Onlinern finden 2003 Markenartikel lohnend (Quelle: AWA). Und dies gilt nicht nur generell, sondern gerade auch bezogen auf Medien: So stuften die Onliner • die Marke FOCUS zu 45 Prozent als sympathisch ein, die Nichtnutzer des Internet lediglich zu 31 Prozent, den Spiegel im Verhältnis 41 zu 26 Prozent und Stern im Verhältnis 40 zu 31 Prozent; oder: • als unverwechselbar, einzigartig empfinden die Onliner den Spiegel zu 49 Prozent, die Nicht-Onliner nur zu 37 Prozent, den Stern zu 39 und 33 Prozent, FOCUS zu 40 und 31 Prozent. Und dies gilt keineswegs nur für die wöchentlichen Magazine, sondern ähnlich deutlich auch für die Titel aus ganz anderen Zeitschriftengattungen (z.B. Men’s Health, Playboy, Geo, TVSpielfilm). Übersicht 16 191 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Internet-Nutzer sind also auch ein besonders empfängliches Publikum zur Pflege von Marken im Medienbereich – und nicht zuletzt auch dadurch sehr fruchtbar, weil sie weit überdurchschnittlich Einfluss auf andere, ihr soziales Umfeld nehmen: 36 Prozent von ihnen gehören zu den Meinungsführern (opinion leader) – gegenüber 23 Prozent der Nicht-Onliner (Quelle: AWA 2003). Jochen Hansen wurde 1943 geboren. Er studierte Wirtschafts- und Sozialwissenschaften (Diplom-Sozialwirt) und ist leitender wissenschaftlicher Mitarbeiter beim Institut für Demoskopie Allensbach, dort seit 1966 tätig. Bücher, Aufsätze, Lehraufträge zu Methoden der empirischen Markt-, Medien- und Sozialforschung, speziell zur Forschung mit persönlich befragten Panels. Zur Bedeutung des Internet für Medien jüngste Veröffentlichung zusammen mit Johannes Schneller: „Media Brands: How Much Stronger Thanks to Their Internet Presence?“ auf dem Worldwide Readership Symposium 2003 (Cambridge, Massachusetts, USA). Johannes Schneller wurde 1957 geboren. Er studierte Forstwissenschaft und Romanistik in Freiburg und war von 1983 bis 1987 Wissenschaftlicher Assistent am Institut für Arbeitswissenschaft an der Universität Freiburg. 1987 Promotion zum Dr. rer. nat., 1989/1990 Staatsexamen. Seit 1990 ist er wissenschaftlicher Mitarbeiter im Institut für Demoskopie Allensbach. Zunächst Leiter der Statistischen Abteilung und der Auswertungsabteilung. Seit 1993 Leitung der Mediaforschung: verantwortlich unter anderem für die Allensbacher Markt- und Werbeträgeranalyse (AWA) und die Allensbacher Computer- und Technik-Analyse (ACTA). Hinzu kommen Projekte der Markenforschung, z.B. zu den Images von Produktmarken, Medienmarken und Sponsoringpartnern. Forschungsschwerpunkte: qualitative und quantitative Medienforschung (Printmedien, TV, Outdoor-Medien, Internet); Methodenfragen der Medienforschung; Mediennutzung in der jungen Generation; Nutzung der neuen Medien und Wechselwirkung mit der Nutzung etablierter Medien. 192 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Ist die Ökonometrie am Ende? Von Wolfgang J. Koschnick Es ist noch gar nicht lange her, da gab es praktisch eine einzige Vorstellung darüber, wie Werbung und Massenmedien wirken, nämlich von oben nach unten. Man gibt oben die Werbung ein und unten, bei den blöden Konsumenten, kommt die Wirkung heraus. Bis tief in die sechziger Jahre und sogar noch darüber hinaus hielt sich der Mythos von der Omnipotenz von Werbung und Massenmedien. Er unterstellt, wohl durchdachte und wohl dosierte Stimuli in den Massenmedien könnten jedermann auf die gleiche Weise erreichen und beeinflussen. Folglich könnte allein der Inhalt der Kommunikation bei allen Menschen der Gesellschaft grundsätzlich gleich laufende Reaktionen auslösen. Die Massenmedien sind danach reine ,,Transmissionsriemen“. Deshalb nannte man die Modelle auch ,,transmission belt theory“ oder ,,hypodermic needle model“, weil der Kommunikations-Stimulus einer Injektion vergleichbar ist, die dem wehrlosen Empfänger unvermittelt ,,unter die Haut“ geht. Die Konsumenten stellen eine weitgehend homogene Masse dar, die den ,,allmächtigen“ Massenmedien und der Werbung hilflos ausgeliefert ist. Mit ihren Stimuli zielen diese auf die einzelnen – sozial weitgehend isolierten – Verbraucher, um sie zu bestimmten Kaufhandlungen zu veranlassen. Dieses ,,Modell der Massenkommunikation“ ist heute längst widerlegt, wiewohl seine Beliebtheit als Thema der Kulturkritik nach wie vor ungebrochen ist. Die Aussagen der frühen Werbewirkungsforschung waren linear: Eine Werbebotschaft A in Werbeträger B hat beim Publikum C die Wirkung D. Die Aussagen der modernen Kommunikationstheorie sind ungemein differenzierter: Wenn ein Stimulus der Überredungskommunikation – Aussage, Kommunikator, Medium und Institution der Massenkommunikation – bestimmte Merkmale K1, K2,... Kn aufweist und von einem Rezipienten mit den Merkmalen R1, R2,... Rn in einer Situation S1, S2,... Sn empfangen wird, dann ist mit einer bestimmten Wahrscheinlichkeit W1, W2,... Wn die Wirkung E1, E2,... En auf die Einstellungen des Rezipienten zu erwarten. Diesen entscheidenden Fortschritt verdankt die moderne Werbeforschung vor allem der ökonometrischen Marketing- und Mediaforschung. Praktisch alle Modelle der neueren Werbeforschung sind ökonometrische Modelle. Wer die Stärken und Schwächen der zeitgenössischen Werbewirkungsforschung erkennen will, muss die Grenzen und Möglichkeiten der Ökonometrie kennen. Die Ökonometrie ist ein Bereich der Volkswirtschaftslehre, der sich 1930 als eigenständiger Wissenschaftszweig konstituierte. Der Begriff ist eine Wortbil193 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de dung aus Ökonomie und Metrie (metron bedeutet Griechisch ,,Maß“ oder ,,Messung“). Die Ökonometrie vereint die speziellen Fähigkeiten von Ökonomen, Statistikern und Mathematikern, um die Entwicklung empirisch gestützter ökonomischer Theorien voranzutreiben. Von ökonomischer Seite kommen die Hypothesen über den Zusammenhang zwischen bestimmten wirtschaftlichen Größen; die Statistiker stellen zu diesen Größen gesammelte Daten zur Verfügung; die Mathematiker bilden durch mathematische Verfahren die Verbindung zwischen beiden. Das Ziel der Ökonometrie ist doppelter Art: (1) Hypothesenschätzung: Ökonomische Hypothesen, die lediglich in Form einer allgemeinen Funktion vorgegeben sind, sollen numerisch bestimmt werden. (2) Hypothesentest: Der Wahrheitsgehalt dieser Hypothese soll überprüft werden. Unter theoretischem Aspekt ist der Hypothesentest von größerer Bedeutung, da er über Annahme oder Ablehnung der Hypothese entscheidet. Aus wirtschaftspolitischen Erwägungen ist die Hypothesenschätzung bedeutsam, da sie die Grundlage für numerisch spezifizierte Simulationen oder Prognosen bildet; dies setzt die Annahme der Hypothese voraus. Das Prinzip der ökonometrischen Marketingforschung besteht darin, einen Datenbestand über Marketingaktivitäten und die daraus resultierenden Marktanteilsveränderungen aller in Konkurrenzbeziehung stehenden Marken eines Produktfelds aufzubauen. Aus einem solchen Datenbestand über eine Vielzahl von Marketingaktivitäten lassen sich sodann mithilfe der multiplen Regressionsanalyse für jede Einzelaktivität Einflussgewichte errechnen. Einfach ausgedrückt: Man sammelt einen Bestand von Daten über komplexe Vorgänge wie zum Beispiel eine Vielzahl von Werbekampagnen. Dann rechnet man – mithilfe der Regressionsanalyse – aus, wie die einzelnen Faktoren in dieser Vielzahl von Kampagnen untereinander zusammenhängen. Von der Seite der Ökonomie kommen die Hypothesen über den Zusammenhang zwischen bestimmten wirtschaftlichen Größen. Die Statistiker stellen zu diesen Größen gesammelte Daten zur Verfügung. Und die Mathematiker verbinden beide durch mathematische Verfahren miteinander. Dabei ergeben sich allerdings zwei grundsätzliche Probleme, die ganz entscheidend auch den Wert der moderneren Werbeforschung betreffen: • Das erste Problem: Eine ökonometrische Analyse kann keinen Kausalbeweis liefern. Sie kann aber auch einen kausalen Zusammenhang nicht immer ausschließen. Kausale Zusammenhänge müssen anders als durch ökonometrische Analyse nachgewiesen werden. 194 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Das muss man sich schon einmal genüsslich auf der Zunge zergehen lassen. Die ökonometrische Werbewirkungsforschung macht also Wirkungsforschung. Sie erforscht Wirkungen. Sie erforscht genauer: Die Ursachen von Wirkungen. Aber sie verwendet dabei Methoden, mit deren Hilfe sie den Zusammenhang von Ursachen und Wirkungen gar nicht erforschen kann. Sie sagt mit anderen Worten: Diese Wirkung könnte jene Ursache haben. Aber sie könnte auch eine ganz andere Ursache haben. Welche Ursache sie hat, kann man nicht wissen. Und schon gar nicht mithilfe der Methoden der Ökonometrie. Die ökonometrische Werbe- und Mediaforschung produziert also a priori Nonsense. Man darf das ruhig übersetzen: Sie produziert Unsinn. • Das zweite Problem: Ökonometrische Untersuchungen stützen sich immer nur auf das vorhandene Datenmaterial. Wenn das fehlerhaft oder lückenhaft ist, sind die Befunde der Analyse es auch. Wenn eine ökonometrische Analyse von beispielsweise 20 oder 70 Werbekampagnen bestimmte Regelmäßigkeiten aufzeigt, so gelten diese Regelmäßigkeiten für genau diese 20 oder 70 Werbekampagnen. Welche Zusammenhänge in der 21. oder 71. Werbekampagne bestehen, lässt sich daraus nicht ableiten. Deshalb liegen zu ein und derselben Hypothese oft mehrere und oft genug auch widersprüchliche ökonometrische Ergebnisse vor. Es kommt halt, wie es kommt. Mal so, mal so. Die Folge: Schätzung und Beurteilung von Hypothesen unterliegen einem ständigen Wandel. Günstigenfalls können Hypothesen mit zeitlich beschränkter Gültigkeit bestätigt werden. Entscheidend ist: Die Ökonometrie liefert niemals allgemein gültige Gesetze. Im allerbesten Fall liefert sie Quasi-Gesetze. Meistens liefert sie noch nicht einmal das, sondern stiftet lediglich Verwirrung. Am Anfang aller ökonometrischen Studien steht das 1954 von J. M. Koyck entwickelte Modell der Wirkungsverzögerung beim Einsatz absatzpolitischer Instrumente, dem die Annahme zu Grunde liegt, die Wirkung sinke im Zeitverlauf geometrisch ab. Das Modell wurde 1954 von J. M. Koyck in seinem Aufsatz ,,Distributed Lags and Investment Analysis“ entwickelt. Fast alle empirischen Ansätze der Werbeforschung beziehen sich heute auf diesen Ansatz. Ausgangspunkt ist die Annahme, dass auch weit zurückliegende Werbeaufwendungen stets am Zustandekommen des gegenwärtigen Umsatzes mitbeteiligt sind. Zu erwarten ist, dass der Einfluss des aktuellen Werbeeinsatzes am größten ist, während die Einflussgewichte der weiter zurückliegenden Werbeeinsätze laufend abnehmen. 195 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Weiterentwickelt wurde das Koyck-Modell dann 1957 von M. L. Vidale und H. B. Wolfe in ihrem Ansatz der Marketing- und Werbebudgetierung unter Berücksichtigung von Carry-over-Effekten beim Einsatz des Marketinginstruments Werbung. Es handelt sich um ein dynamisches mathematisches Modell, das auf der Grundlage von empirischen Beobachtungen und Experimenten mit dem Ziel der Formulierung von Aussagen über die optimale Budgethöhe und die Beziehung zwischen Werbeausgaben und Umsatzentwicklung entwickelt wurde. Die deutsche Forschung griff diese Ansätze mit der wegweisenden Grundlagenstudie ,,Werbedosis – Werbewirkung. Untersuchung der Response-Funktionen von Anzeigen-Kampagnen“ des Axel Springer Verlags aus dem Jahre 1971 sowie dem ergänzenden ,,Atlas der Response-Funktionen“ aus demselben Jahr auf. Vertieft und erweitert wurden die daraus gewonnenen Erkenntnisse in den vier Studien der Reihe ,,Markt-Mechanik“, die zwischen 1974 und 1981 erschienen. Sie untersuchten den Zusammenhang zwischen Marktanteil, Änderungen im Distributionsmix, Werbeanteil und Mediamix. Um die Prinzipien und die Probleme der ökonometrischen Werbeforschung zu beleuchten, kann die Werbewert-Studie des Verbands Deutscher Zeitschriften (VDZ) von 1995 dienen. Die Werbewert-Formel versucht, den Einfluss verschiedener Variablen auf den Werbeerfolg herauszuarbeiten, und steht in der langen Tradition ökonometrischer Werbewirkungsstudien. Sie untersucht den Zusammenhang zwischen Marktanteil, Änderungen im Distributionsmix, Werbeanteil und Mediamix. Wie alle anderen Studien auch beruht der Werbewert auf der grundsätzlichen Überlegung, dass der Marktanteil der aktuellen Zeitperiode durch den Marktanteil der Vorperiode, die Distributionsänderung, den Werbeanteil und den Mediamix bestimmt wird. Dabei wurde der Marktanteil der Vorperiode seinerseits bereits durch Distributionsänderungen und Werbeinvestitionen beeinflusst. Im Rahmen der Studie wurden zunächst 195 Kampagnen aus 81 Produktbereichen von alkoholfreiem Bier bis Zwieback über einen Zeitraum von 18 Doppelmonaten zwischen Mitte 1991 und Ende 1994 und dann noch einmal für 147 Marken aus 69 Produktbereichen untersucht. Dafür wurden die Werte für alle Doppelmonate zwischen Anfang 1991 und 1996 herangezogen. Einbezogen wurden nur marketingübliche direkte Werbeaufwands- und Werbewirkungskriterien wie die von der Nielsen S + P Werbeforschung gemessenen Werbeausgaben und Medienbelegungen sowie die vom Nielsen Handelspanel ermittelten Informationen über Marktanteile und Distributionsänderungen je Marke: Werbedosis ist der aktuelle Werbeaufwand, der Werbeerfolg ist die aktuelle Marktanteilsbewegung. 196 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Zur Ermittlung von Abhängigkeiten wurden diese Daten dann einer ökonometrischen Analyse unterzogen. Durch nonlineare multiple Regressionsanalyse wurden verrechnet: die Marktanteile pro Doppelmonat bzw. die Veränderungen je Marke nach Wert, die Werbeausgaben für Print und TV, jeweils als Anteil der Marke an den Gesamtwerbeaufwendungen pro Produktgruppe (Share of Advertising = SOA), und die umsatzgewichtete Distribution. Herausgekommen ist bei der mathematisch-statistischen Veranstaltung eine Formel. Sie ist einigermaßen komplex, so dass jedem Laien entweder die Haare zu Berge oder der Angstschweiß auf der Stirn stehen. Deshalb spare ich es mir, sie überhaupt zu zitieren. In einfachen Worten ausgedrückt, besagt die Werbewert-Formel: Der Marktanteil in der aktuellen Periode beruht zu einem großen Teil auf dem Marktanteil der Vorperiode. Nachdem der Herr Koyck diese „Gesetzmäßigkeit“ schon vor einem halben Jahrhundert „nachgewiesen“ hatte, könnte man eigentlich aufhören, sie Jahr für Jahr noch einmal nachzuweisen. Am Ende der aktuellen Periode werden noch 98 Prozent des vorherigen Marktanteils gehalten, wenn keine Werbung erfolgt. Allerdings geht der Einfluss des Vorperioden-Marktanteils mit steigender Marktanteilsgröße immer stärker zurück. Die Variable Distribution macht sich nur im Fall von Distributionsänderungen direkt proportional bemerkbar. Bei unveränderter Distribution hat sie den Wert eins und folglich keinen Einfluss. Der Einfluss der Werbeinvestitionen stellt sich als Summe der Werbeanteile der einzelnen Mediengattungen dar. Sie tragen mit 15 bis 19 Prozent des Werbeanteils zur Marktanteilsveränderung bei. Und die große Frage ist nun: Was hat das zu sagen? Die Antwort fällt leicht: Es hat gar nichts zu sagen. Es bedeutet nichts. Gar nichts. Eine ökonometrische Formel ist nicht das, was eine mathematische Formel besagt. Sie ist etwas grundsätzlich Anderes. Sie besagt nämlich, dass sie nichts besagt. Was macht eine mathematische Formel aus? Das Wichtigste daran ist: Sie gilt. Sie gilt immer. Sie ändert sich nicht. 4 + 3 = 7. Das gilt immer. Egal ob es regnet oder schneit. Wenn man zu vier Äpfeln drei weitere hinzutut, ergibt das immer sieben Äpfel. Das trifft auch für Birnen, Pflaumen und Pfirsiche zu. Man kann sogar Birnen und Äpfel miteinander verknüpfen, obwohl es doch immer wieder heißt, man solle die Finger davon lassen. Vier Äpfel plus drei Birnen sind immer noch sieben Früchte. Man kann sich absolut darauf verlassen, dass 4 plus 3 immer 7 ergibt. 197 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Bei einer ökonometrischen Formel ist das nicht der Fall. Die gilt stets nur im Einzelfall. In dieser konkreten Untersuchung hat sich ergeben, dass 4 plus 3 gleich 7 ist. Wenn wir Glück haben, gilt das auch in der nächsten Untersuchung. Wenn wir Pech haben, gilt das aber nicht. Aber wann wir Glück und wann wir Pech haben, lässt sich mithilfe der Ökonometrie nicht näher festlegen. Wenn man für 17 Kampagnen untersucht hat, dass die Zusammenhänge so und so sind, dann kann man daraus nicht etwa die Schlussfolgerung ableiten, dass die Verhältnisse bei der 18. Kampagne genauso so sind. Das kann zwar sein. Es kann aber auch anders sein. Nix Genaues weiß man nich. Wie die Verhältnisse genau sind, lässt sich mithilfe der ökonometrischen Analyse nicht ermitteln. Das müsste man noch einmal neu untersuchen. Aber eigentlich man will ja gerade mit der Formel herausfinden, wie die Zusammenhänge bei allen Kampagnen sind. Doch genau das geht nicht. Ökonometrische Erkenntnisse haben den Charakter von nichts sagenden Aussagen: „Wenn der Hahn kräht auf dem Mist, dann regnet es oder das Wetter bleibt, wie es ist.“ Aber wenigstens für die 17 untersuchten Kampagnen trifft die Formel doch zu, oder? Pustekuchen. Überhaupt nicht. Auch davon kann keine Rede sein. Für alle Einzelfaktoren der Formel werden Durchschnitte aus den 17 Kampagnen gebildet. So setzt sich die Formel zusammen: aus den Durchschnittswerten für alle 17 Kampagnen. Ergeben sich also für die einzelnen Faktoren teils extrem niedrige, teils extrem hohe und teils irgendwie dazwischen liegende Werte, so ist der Durchschnitt lediglich ein Mittelwert, der in der wirklichen Wirklichkeit überhaupt nicht vorkommt. Und der Durchschnittswert ist ein arithmetisches Mittel, das nur sehr selten etwas Vernünftiges aussagt: Wenn von zwei Leuten einer eine ganze Flasche Wodka austrinkt und der andere abstinent bleibt, dann haben beide im Durchschnitt eine halbe Flasche ausgetrunken. Sie sind also im Durchschnitt gleich betrunken. Aber wenn ich das realitätsnah betrachte, ist der Erste sturzbetrunken und der Zweite stocknüchtern. Sie sagen, das sei an den Haaren herbeigezogen? Recht haben Sie. Das ist genauso an den Haaren herbeigezogen wie die ökonometrischen Durchschnittswerte. Aber egal, sagt sich der Optimist. Wenigstens hat man mit der Ökonometrie eine Faustformel, die man auf künftige Kampagnen anwenden kann. Wenn etwas einmal funktioniert hat, warum soll es dann beim nächsten Mal nicht wieder funktionieren? Schön wäre es. 198 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Das Vertrackte an Prognosen – hat Willy Brandt einmal gesagt – ist, dass sie sich auf die Zukunft beziehen. Und was die Zukunft bringt, kann man vorher nicht wissen. Wir haben es nun einmal mit menschlichem Verhalten in komplexen sozialen Systemen zu tun. Das unterliegt ständigem Wandel. Da gibt es Ermüdungs- und Sättigungserscheinungen. Und man weiß nie, ob die Leute beim nächsten Mal noch genau so reagieren wie beim letzten Mal. Wenn sie es nicht tun, ist die ganze schöne Formel für die Katz. Die Formel gilt immer, wenn alles beim nächsten Mal genauso ist wie vorher. Wenn sich aber die Struktur von etwas ändert, dann gilt sie eben nicht. Manchmal habe ich das Gefühl, dass die ganze regressionsanalytische Rechnerei vor allem dazu da ist, lebens- und realitätsfremde Daten zum Jonglieren zu liefern, damit die Markt- und Mediaforscher etwas zum Spielen haben. Auf die fundamentale Frage, wie das in der Werbung geht, liefert die ökonometrische Forschung nicht viel mehr als die flapsige Antwort: „Gestern ging‘s noch.“ 98 Prozent des bestehenden Marktanteils innerhalb eines Doppelmonats können laut Werbewert gehalten werden, wenn keine Werbung stattfindet. Ich stelle mir gerade vor, man hätte diesen Ansatz verwendet, um den hohen Alkoholkonsum in der ehemaligen Sowjetunion zu erklären. Alle zwei Monate geht der Konsum ohne Werbung zurück. 70 Jahre lang – das sind 420 Doppelmonate – ohne Werbung für Alkohol: Mein Gott, müssen die Russen vor der Glorreichen Oktoberrevolution gesoffen haben. So kommen denn auch in ökonometrischen Studien stets Ergebnisse zutage, die man ohne Zögern als Binsenweisheiten abtun kann. Aus der Werbewert-Studie leitete der Zeitschriftenverlegerverband die folgenden ,,Erkenntnisse“ ab: 1. Werbung wirkt. Klassische Werbung leistet einen unverzichtbaren Beitrag zum Markterfolg. Werbeverzicht bedeutet daher umgekehrt Marktanteilsverlust. Ohne Werbung sanken die Marktanteile um durchschnittlich 2 Prozent pro Doppelmonat. Der Schwund von 2 Prozent muss durch Werbung oder Distribution ausgeglichen werden, wenn der Marktanteil gehalten werden soll. Das muss man sich einmal vor Augen führen. Am Ende des zweiten Jahrtausends sagt eine wissenschaftliche Untersuchung: Werbung ist nicht ganz und gar überflüssig. 199 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de 2. Hohe Marktanteile erfordern allein zu ihrer Stabilisierung überproportional hohe Werbeanteile. Deshalb benötigen große Marken überproportional große Werbeetats und einen überproportional höheren Werbedruck als kleine Marken, wenn sie ihre Marktanteile stabilisieren und ausweiten wollen. Da trifft es sich, dass große Marken in der Regel auch mit großen Etats ausgestattet sind. Auch dies ist also eine Erkenntnis der Kategorie ,,Binse“. Alles in allem gelang also der ,,Nachweis“, dass man mit viel Geld mehr erreicht als mit wenig Geld oder ganz ohne. Die Wissenschaft ist einfach eine fabelhafte Angelegenheit. 3. Distributionsveränderungen wirken sich direkt auf den Marktanteil aus. Das klingt zunächst beeindruckend. Doch was bedeutet es? Es bedeutet: Je besser der Vertrieb eines Produkts organisiert ist, desto höher wird sein Marktanteil. Mit anderen Worten: Wenn der Vertrieb einer Marke so schlecht organisiert ist, dass man sie nirgendwo kaufen kann, dann hat sie auch keinen Marktanteil. Wenn sich das bessert, wird der Marktanteil höher. Ja, was sonst? 4. Der Einfluss der Konkurrenzwerbung ist unbedingt bei der Werbebudgetierung zu berücksichtigen. Zu geringe Werbeinvestitionen, aber auch Werbepausen führen zu Marktanteilsverlusten. Werbekontinuität zahlt sich aus. Der positive Zusammenhang zwischen Werbedruck und Marktanteil ist jedoch nicht linear, das heißt, je höher die Ausgaben stiegen, desto geringer wurden die Zuwächse. Mit steigenden Werbeaufwendungen in Print und TV wächst deren marktanteilsbewegende Wirkung unterproportional. 5. Mediamix-Kampagnen sind gegenüber Mono-Kampagnen um 15 bis 20 Prozent effizienter. Auch das ist erfreulich zu hören. Allein: Die Überlegenheit von Mix-Strategien wurde schon in grauer Vorzeit wesentlich detaillierter nachgewiesen. Die Werbewert-Formel ist so ausgelegt, dass damit 98,3 Prozent des Marktgeschehens erklärt werden können, und zwar zu 93,3 Prozent durch die Marktanteile im vorangegangenen Doppelmonat und die Distributionsveränderungen und zu 5 Prozent durch den Werbeeinsatz im aktuellen Doppelmonat. Nur 1,7 Prozent des Marktgeschehens können nicht durch die Werbewert-Formel erklärt werden. Das ist jedoch alles andere als ermutigend. Es bedeutet nämlich, dass die Werbewert-Formel nur 5 Prozent der Marktveränderungen durch Werbung erklären kann. Logische Konsequenz: Werbung wirkt danach nur ganz wenig – so wenig, 200 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de dass man sich fragen müsste, ob man das schöne Geld nicht für etwas anderes ausgeben sollte, wenn man sich darauf verlassen könnte, dass die Formel stimmt. Tatsächlich liegt jedoch der Verdacht nahe, dass ökonometrische Verfahren der Werbeerfolgsmessung so gut wie überhaupt nicht in der Lage sind, den komplexen Kommunikationsprozess der Werbung angemessen abzubilden. Ökonometrische Modelle berücksichtigen in der Regel nur den Anfang (die Werbemaßnahme) und das Ende (den ökonomischen Erfolg) des Kommunikationsprozesses und klammern den wichtigsten Faktor dazwischen aus: den Rezipienten, auf den Werbung zunächst einmal im psychologischen Sinne wirkt und bei dem Wahrnehmungs-, Verarbeitungs- und Entscheidungsprozesse stattfinden, bevor ein Kaufakt erfolgt. Die Formel basiert auf Durchschnittswerten über 81 Produktgruppen. Ihr Einsatz in der Alltagspraxis dürfte deshalb schwierig sein; denn es stellt sich die Frage, ob sie für alle Produktgruppen gleichermaßen gilt oder ob kategorienspezifische Anpassungen notwendig sind. Kann also die Formel für Hundefutter in gleicher Weise gelten wie für Videorecorder und WC-Reiniger? Für Marktanteile, Etats, Printanteile und Produktinteresse wird zwar danach differenziert, ob die jeweiligen Produktwerte über oder unter den Durchschnittswerten liegen. Aber reicht diese Differenzierung aus? Wie steht es mit Elementen wie dem Produkt-Image oder der Produkt-Ausstattung? Und schließlich bleibt der Wirkungsbeitrag der Verkaufsförderung vollends unberücksichtigt. Natürlich haben ökonometrische Studien einen unglaublichen Vorteil. Es kommt immer etwas dabei heraus. Und das, was dabei herauskommt, ist meistens eine Formel – ein mathematisches Dokument. Das Ganze sieht immer wissenschaftlich aus. Und da die meisten Leute Angst vor Formeln haben und sich selbst auch meist für doofer halten, als sie sind, schlucken sie die Formeln, als ob sie wahr wären. Bei den Verfahren der Regressionsrechnung kommt noch hinzu: Die Formeln untersuchen ja stets die Interaktion zwischen zwei, drei, vier oder fünf Faktoren, von denen man schon vorher weiß oder begründet vermutet, dass sie einen Einfluss auf die Werbewirkung haben. Das ist sehr praktisch. Besonders für Verlage und andere Medienunternehmen. Will ein Verlag herausfinden, ob ein beliebiger Faktor einen Einfluss auf die Anzeigenwirkung hat, dann untersucht er das regressionsanalytisch. Und heraus kommt: Jawoll. Dieser Faktor hat einen Einfluss auf die Wirkung von Anzeigen. Braucht er Angaben darüber, ob ein anderer Faktor die Werbewirkung beein201 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de flusst, untersucht er das regressionsanalytisch. Und heraus kommt: Jawoll, meine Herren. Das hat einen Einfluss auf die Werbung. Egal was man auch untersucht. Immer kommt etwas dabei heraus. Das ist ja das Schöne an der Ökonometrie. Wenn man sie einsetzt, um etwas nachzuweisen, geht das reibungslos. Egal was. Und weil das so ist, ist es auch völlig egal, was dabei herauskommt. Ökonometrischen Befunden haftet eine ziemlich unziemliche Beliebigkeit an. Deshalb sind sie so beliebt. In der heutigen Werbewirkungsforschung spielen vor allem vier Denkmodelle eine Rolle, von denen praktisch alle in der Tradition der ökonometrischen Mediaforschung stehen. Das sind: (1) Die Short-Term-Advertising-Strength-Formel oder auch STAS-Formel des aus Wales stammenden Professors John Philip Jones von der Syracuse University in New York. (2) Das Advertising-Response-Modell (ARM), das die Nürnberger Gesellschaft für Konsumforschung (GfK) ebenfalls im Auftrag des Gesamtverbands Werbeagenturen (GWA) entwickelt hat und das unmittelbar an die STASFormel anknüpft. (3) Die Werbewert-Formel des Verbands Deutscher Zeitschriften (VDZ), die der deutsche Mediaforscher Peter Beike entwickelt hat. (4) Der Werbewirkungskompass, den die deutsche Mediaforscherin Erna Engelsing für IP Deutschland zusammengestellt hat. Die STAS-Formel: Der große Etikettenschwindel Keine einzige Studie hat in den letzten Jahren so viel Aufsehen erregt wie jene, die zur STAS-Formel des Professors John Philip Jones führte. Es war die Rede von einer neuen Währung in der Werbeforschung. Immer wieder streiten Werbepraktiker darüber, ob klassische Werbung oder Verkaufsförderung sinnvoller ist. Der allgemeine Konsens lautet: Klassische Werbung wirkt langfristig und dauert. Verkaufsförderung dagegen wirkt sofort und fördert rasch den Absatz. Unter dem Einfluss dieses Paradigmas sind vor allem in den USA, aber auch in Europa erhebliche Geldsummen von der klassischen Werbung in die Verkaufsförderung umdirigiert worden. In Amerika gehen rund 60 Prozent der Kommunikationsinvestitionen in Below-the-line-Maßnahmen. 202 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Diese Denkweise führt zu einem fundamentalen, ja peinlichen Denkfehler im Forschungsansatz. Denn bei der vergleichenden Untersuchung der Wirkung von Verkaufsförderung und klassischer Werbung wird vieles, was klassische Werbung leistet, von vornherein gar nicht untersucht: der Aufbau des dauerhaften Markenwerts, die langfristige Hege und Pflege eines Marken- oder eines Firmenimage. Gemessen wird, ob Werbung Verkäufe genauso fördert wie Verkaufsförderung. Das ist ein absolut unseriöses Vorgehen: Man misst einen ganz kleinen Ausschnitt aus der Gesamtheit der Werbewirkungen, und man misst alles, aber auch alles, was Verkaufsförderung nun einmal bewirken kann. Und siehe da: Die Verkaufsförderung schneidet im Vergleich zur klassischen Werbung ziemlich gut ab. Wer sich darüber wundert, hat noch nicht einmal kapiert, was jeder Depp wissen sollte: Verkaufsförderung ist Verkaufsförderung, und Werbung ist Werbung. Der Vergleich zwischen den verkaufsfördernden Wirkungen von Werbung und von Verkaufsförderung ist so geistreich wie der Vergleich der Flugeigenschaften eines Fahrrads und eines Flugzeugs. Nur würde sich unter Ingenieuren niemand wundern, wenn man ihnen mitteilt, dass Fahrräder auf schmalen Wegen besser fahren, dafür aber nicht so gut in der Luft liegen. Viel dramatischer ist aber noch die Kurzatmigkeit des Denkansatzes. Dem erfolgreichen Aufbau ihres Image kann es eine Marke verdanken, dass sie zehn, 20 oder noch mehr Jahre länger lebt und fröhliche Verkäufe erzielt. Jeder Akt der Verkaufsförderung ist ja überhaupt nur auf kurzfristige Wirkung angelegt und kann über den Tag kaum Wirkungen auslösen. Die Studien von John Philip Jones erregten 1994 besonderes Aufsehen. Jones gelangte zu der Schlussfolgerung: Klassische Werbung wirkt genauso kurzfristig wie Verkaufsförderung. Der Tenor war klar: Die Gelder müssen wieder in Richtung klassische Werbung umgelenkt werden. Wie die STAS-Formel funktioniert Um die kurzfristige Umsatzwirkung der klassischen Werbung zu messen, führte Jones das neue Messinstrument STAS ein. Die Abkürzung STAS steht für Short-Term Advertising Strength – kurzfristige Werbestärke. • Baseline STAS: Zunächst wird innerhalb eines Zeitraums von sieben Tagen erfasst, wie Verbraucher einkaufen, die eine Fernsehwerbung für ein bestimmtes Produkt nicht gesehen haben. Der so ermittelte Wert heißt Baseline STAS. Er bezeichnet gewissermaßen die Ausgangs-Werbestärke. Die Bezeichnung ist irreführend. Denn Baseline STAS hat ja mit Werbewirkung gar nichts zu tun. Er bezeichnet vielmehr die von jeder Werbewirkung absolut freie Verkaufsstärke eines Produkts. 203 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de • Stimulated STAS: Diese Daten werden mit dem Einkaufsverhalten von Personen verglichen, die während derselben Zeit Kontakt mit der Fernsehwerbung für das Produkt hatten. Der so ermittelte Wert heißt Stimulated STAS – das ist also die durch Fernsehwerbung erzeugte höhere Verkaufsstärke eines Produkts. • STAS-Differential: Der Unterschied zwischen beiden Werten bzw. ein daraus errechneter Indexwert, das STAS-Differential, stellt nach Jones ein einfaches und direktes Maß für kurzfristige Werbewirkung dar. Dabei kennzeichnen Indexwerte über 100 eine positive Wirkung, Werte unter 100 eine negative Entwicklung. Das STAS-Differential für eine Marke sollte also möglichst weit über 100 liegen. Marken mit einem negativen STAS-Differential gelingt es nicht, sich gegen den Werbedruck der Konkurrenz durchzusetzen. Die Ergebnisse der Jones-Studie basieren auf Daten aus einem nationalen Panel des amerikanischen Marktforschungskonzerns A. C. Nielsen. Die Messung erfolgte in 2000 Haushalten auf wöchentlicher Basis. In zwölf Konsumgüterkategorien hatten die Nielsen-Forscher insgesamt 142 Marken über einen Zeitraum von einem Jahr beobachtet. Für 80 dieser Marken wurde im Fernsehen geworben, 62 Marken wurden ohne jede Werbung verkauft. Dabei ergab sich: 70 Prozent der untersuchten Kampagnen erzielten kurzfristige Verkaufserfolge. 46 Prozent erzielten auch Langzeit-Erfolge. In Einzelfällen konnten kurzfristige Zuwächse von 60 Prozent erzielt werden. Mehr noch: 93 Prozent der kurzfristigen Verkaufserfolge (innerhalb einer Woche nach Ausstrahlung) wurden durch einen einzigen Werbekontakt erzielt. Nachdem Jones 1994 den Erfolg von Kampagnen in den USA untersucht hatte, führte er in zwei Studien identische Analysen auch für 35 bzw. 28 Produktkampagnen in Deutschland durch. Die Ergebnisse wiesen grundsätzlich in dieselbe Richtung: Fernsehwerbung löste in Deutschland bei 65 bzw. 80 Prozent aller untersuchten Kampagnen innerhalb von sieben Tagen eine kurzfristige Absatzsteigerung aus. Bei über einem Drittel bis der Hälfte der Kampagnen war darüber hinaus auch eine langfristige positive Wirkung über einen Zeitraum von einem Jahr zu beobachten. Im Hinblick auf Unternehmensgewinne war Fernsehwerbung effektiver als Preispromotion, die Kombination beider Maßnahmen erzielte die beste Wirkung. Schließlich war auch in Deutschland kontinuierliche Werbung erfolgreicher als hohe Konzentrationen von Werbung auf sehr kurze Zeiträume. Es handelt sich bei STAS um ein sehr einfaches, ja grobschlächtiges Instrument, das nicht viel mehr als eine Neuauflage des Netapps-Verfahrens darstellt, das der amerikanische Marktforscher Daniel Starch bereits in den dreißiger Jahren des vergangenen Jahrhunderts eingesetzt hat. Es ist also ein ziemlich alter Hut, der da in etwas neuem Gewande so viel Begeisterung auslöst. 204 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Netapps ist eine Abkürzung. Sie bezeichnet ,,net ad-produced purchases“ – die unter dem Strich allein durch Werbung generierten Verkäufe. Zur Ermittlung des direkten Verhältnisses von Werbeaufwand und Verkaufserfolg wird dabei das Verhalten der Personen mit Werbekontakt mit dem der Personen ohne Werbekontakt verglichen, und zwar in Panelbefragungen. So ergibt sich die Ermittlung der ausschließlich auf den Einfluss der Werbung zurückführbaren Käufe – eine relativ einfache Rechnung. Bereits gegen dieses Verfahren lassen sich zwei grundsätzliche Einwände erheben: 1. Es wird nur jener Umsatzeffekt der Werbung erfasst, der unmittelbar nach der Streuung der Werbemittel eintritt. Längerfristige Umsatzwirkungen, die die kurzfristigen Ergebnisse verstärken, schmälern, aufheben oder sogar überkompensieren, bleiben unbeachtet. 2. Bei Werbemitteln, die in sehr kurzen Intervallen gestreut werden, ist es höchst problematisch, die unmittelbar nach Erscheinen getätigten Mehrkäufe der Werbewahrnehmer kausal dem einzelnen Werbemittel zuzurechnen. Sehr häufig wird es so sein, dass vorangegangene Werbeaktivitäten, Erfahrungen mit dem Produkt und der Firma sowie bestehende Kaufabsichten die Aufmerksamkeit und das Interesse potenzieller Abnehmer geweckt haben. Eine so gestimmte Abnehmerschaft beachtet entsprechende Werbemaßnahmen eher als bisher unmotivierte Personen. Diese Einwände gelten auch für das Jones-Verfahren. Allerdings mit einer entscheidenden Variation: Während die alte Netapps-Technik sich der Methode der Panelbefragung bediente, greift die STAS-Studie auf Single-Source-Daten zurück. Single Source bedeutet, dass sowohl Daten über das Kaufverhalten von Konsumenten wie über deren Mediennutzung aus einer einzigen Quelle, das heißt, aus einem einzelnen Haushalt oder von einer einzelnen Person vorliegen. Kombiniert mit der Information darüber, welche Produkte in den von den Konsumenten gesehenen bzw. nicht gesehenen Fernsehspots beworben wurden, sind damit grundsätzlich kausale Schlüsse über die Beziehung zwischen Werbemaßnahme und Werbeerfolg möglich. Die Single-Source-Methode ist vor allem deshalb bedeutsam, weil sie kurzfristige Messungen überhaupt erst möglich gemacht hat. Technisch und methodisch wäre das zwar auch vorher ohne weiteres machbar gewesen. Es ist aber faktisch nicht getan worden. Die landläufigen Handelspanels messen Verkäufe stets nur in relativ langen Zeitabständen. Meistens alle zwei Monate. Durch diesen Raster sind die kurzfristigen Verkäufe stets durchgefallen. Dadurch entstand der irrige Eindruck, 205 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de dass kurzfristige Veränderungen durch Mediawerbung überhaupt nicht zu bewirken sind. Auf jeden Fall stellt der jonessche Ansatz einen Rückfall in die Messmethoden längst vergangener Zeiten dar. Er ignoriert dabei die weit fortgeschrittenen Techniken der neueren Forschung. Ohne jede Not. Denn mit raffinierteren Messmethoden ließen sich wesentlich differenzierte Erkenntnisse gewinnen. Aus seinen Untersuchungen leitete Jones drei Hauptaussagen ab: (1) Mediawerbung wirkt genauso kurzfristig wie Verkaufsförderung. Das wird seither als die ,,heißeste“ These von Jones gehandelt. Langfristig erfolgreiche Werbung muss bereits kurzfristig wirken. Die kurzfristige Werbewirkung ist eine unabdingbare Voraussetzung für ihren langfristig positiven Effekt auf die Verkaufszahlen. Ja, was denn sonst? Hat irgendwann schon einmal irgendjemand das Gegenteil behauptet? Gibt es irgendwo in der Welt eine einzige Untersuchung, die besagt: Werbung wirkt am Anfang überhaupt nicht oder nur ganz wenig, aber am Ende dreht sie mächtig auf? Es heißt immer, John Philip Jones räume mit dem Vorurteil auf, Mediawerbung wirke nur langfristig. Ja, hat denn jemals irgendjemand einen solchen hanebüchenen Unsinn behauptet? Nein. Response-Kurven sind immer schon von einem zunächst sehr schnellen Anstieg der Werbewirkung ausgegangen. Die generalisierte Kontaktbewertungskurve – die berühmte, ja legendäre KKK, die konvex-konkave Kontaktbewertungskurve – heißt ja gerade so, weil sie konvex anfängt und dann konkav weitergeht. Das heißt: Es geht mit der Werbewirkung erst einmal – bei wachsender Kontaktzahl – rasant nach oben, und dann flacht es allmählich ab. In dürren Worten: Werbung wirkt am Anfang und kurzfristig sehr stark, und dann lässt sie ein wenig nach. Später kann sie nur noch mit ziemlich hohen Kontaktdosen – also mit großem Aufwand – zum Wirken gebracht werden. Diese Erkenntnis gehört zu den ältesten Hüten der Werbe- und Mediaforschung. (2) Die zweite große Erkenntnis des John Philip Jones lautet: Eine kontinuierlich verteilte Kampagne bringt wesentlich mehr Absatzzuwächse als Werbung in Intervallen. Die Studie erbrachte also den Nachweis, dass der massierte Einsatz von Mediawerbung – genauer gesagt: von Fernsehwerbung, denn nur diese hat Jones empirisch untersucht – in kurzen Zeiträumen deutlich weniger Absatzzuwächse bringt als kontinuierlich über das ganze Jahr verteilte TV-Spots. Zum Thema Kleckern oder Klotzen argumentiert Jones also wieder einmal für das Kleckern, genauer für das kontinuierliche Kleckern in geringen Kontaktdosen. 206 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Auch dieser Befund ist bereits in den ältesten Marketinglehrbüchern durchaus differenzierter nachzulesen: Die Entscheidung über die zeitliche Verteilung von Marketingausgaben hängt von den Marketingzielen ab, heißt es da meist. (3) Ergänzen Werbung und Verkaufsförderung einander gegenseitig, so kann der langfristige Verkaufserfolg bis zu achtmal größer sein als beim alleinigen Einsatz von Mediawerbung. Die größte Langzeitwirkung wird erzielt, wenn ein positiver STAS-Wert mit überdurchschnittlichen Werbeaufwendungen und überdurchschnittlichen Verkaufsförderungsmaßnahmen kombiniert wird. Dies ist also ein Argument für den virtuosen Einsatz des Marketingmix und gegen Monokampagnen. Es ist ohne jeden Zweifel ein richtiges, aber eben auch kein originelles Argument. Mit der Erkenntnis, dass Mix-Kampagnen Mono-Kampagnen überlegen sind, ist die Werbebranche seit Jahrzehnten bestens vertraut. Das Advertising-Response-Modell (ARM): Kreativität zählt Das Advertising-Response-Modell wurde 1997 von der Nürnberger Gesellschaft für Konsumforschung (GfK) im Auftrag des Gesamtverbands Werbeagenturen (GWA) entwickelt. Es soll die Wirkung von Marketingaktionen auf Marktanteile belegen und wurde wohl auch aus taktischen Notwendigkeiten geboren: (1) Zum einen sollte es die etwas dürren Daten der Jones-Studie mit etwas Fleisch bereichern, (2) und zum anderen konnte es der GWA als Verband der Werbeagenturen, die stets so viel Wert darauf legen, dass sie Horte menschlicher Kreativität sind, auf Dauer nicht auf sich sitzen lassen, dass in den vorangegangenen Studien die werbliche Qualität von Kampagnen als Quantité négligeable erschienen war. Das Advertising-Response-Modell (ARM) Für das Advertising-Response-Modell (ARM) wurden die Aufmerksamkeitsstärke und die Vermittlung von Markenpräferenz durch TV-Spots in Werbemittel-Pretests erhoben. Damit soll nicht nur der Einfluss des Werbedrucks, sondern auch der Einfluss der Werbequalität auf den Marktanteil bestimmt werden. So ergibt sich, wie sich die Marktanteile einer Marke entwickeln können, wenn sich einzelne Einflussvariablen wie Werbedruck, Markenpräferenz oder Promotionintensität verändern. Die zur Modellierung der Werbewirkung erforderlichen Inputvariablen wurden auf Größen beschränkt, über die ein Werbung treibendes Unter207 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de nehmen in der Regel verfügt. Im Einzelnen sind dies: Werbedruck, Aufmerksamkeitswirkung und Markenpräferenz (sie spiegeln die Werbequalität wider), Promotion- und Normalpreise, Anteil an Zweitplatzierungen, Promotionsintensität und gewichtete Distribution für die eigene Marke und die Warengruppe). Mit ARM wurden 17 bekannte starke und etablierte Marken aus Produktgruppen wie Kaffee, alkoholfreie Getränke, Süßwaren, Mundhygiene und Fertiggerichte über einen Zeitraum von zwei Jahren beobachtet, die hauptsächlich im Fernsehen beworben wurden. Erstaunlichstes Ergebnis der Studie sei ,,der Nachweis der starken Wirkung der Werbequalität auf den Marktanteil“, sagt Siegfried Högl, Geschäftsführer der GfK-Marktforschung. Werbungtreibende könnten dagegen oft nur ,,geringfügige Marktanteilseffekte“ erwarten, wenn sie den Werbedruck verdoppeln. Eine Preissenkung von beispielsweise 7,5 Prozent verspricht zwar ein Marktanteils-Plus von 14,2 Prozent. Doch neben sinkendem Gewinn könnten Preisaktionen langfristig auch den Markenwert schädigen. • Die größte Steigerung des Marktanteils erzielen Werbedruck und Werbequalität. Sie erhöhen den Marktanteil in 12 Monaten auf einen Indexwert von zirka 122, während eine Verdopplung der Promotion-Intensität nur zu einem Indexwert von 117,5 führt. • Sogar eine Verdopplung von Promotion-Intensität und Werbedruck erzielt einen geringfügig kleineren Wert (121) als die Steigerung von Werbedruck und Werbequalität. • Unter den drei Faktoren Werbedruck, Aufmerksamkeitsstärke der Kampagne und Vermittlung von Markenpräferenzen erzielte die Markenpräferenz das mit großem Abstand beste Ergebnis (Index 116). Während eine Verdopplung des Werbedrucks nur geringfügige Marktanteilseffekte erwarten lässt, kann durch eine 20-prozentige Steigerung der Aufmerksamkeitsstärke in Verbindung mit einer Verdopplung der Vermittlung von Markenpräferenz und einer Verdopplung des Werbedrucks eine Steigerung des Marktanteils erwartet werden, die über die Steigerung durch eine Verdopplung der Promotion-Intensität hinausgeht. Die oft unterstellte Unterlegenheit der Verkaufswirkung von Werbung im Vergleich zu Promotions sei damit möglicherweise nur ein Problem bislang fehlender Messmöglichkeiten: Neue Munition in der Auseinandersetzung des Gesamtverbands Werbeagenturen über die Rivalität zwischen Werbung und Verkaufsförderung. 208 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Die Werbewert-Formel Die Berechnung des Werbewerts Der Werbewert beruht auf der grundsätzlichen Überlegung, dass der Marktanteil der aktuellen Zeitperiode durch Marktanteil der Vorperiode, die Distributionsänderung, den Werbeanteil und den Mediamix bestimmt wird. Dabei wurde der Marktanteil der Vorperiode seinerseits bereits durch Distributionsänderungen und Werbeinvestitionen beeinflusst. Anders als die Jones-Studie ist die Werbewert-Formel für die Abschätzung des Werbeerfolgs von TV- und Printmaßnahmen bzw. deren Kombination angelegt. Dazu untersuchte Peter Beike zunächst 195 Kampagnen aus 81 Produktbereichen von alkoholfreiem Bier bis Zwieback über einen Zeitraum von zunächst 18 Doppelmonaten zwischen Mitte 1991 und Ende 1994 und dann für die 1997er-Studie noch einmal 147 Marken aus 69 Produktbereichen. Dafür wurden die Werte für alle Doppelmonate zwischen Anfang 1991 und 1996 herangezogen. Die Produkte stammten durchweg aus der Kategorie der ,,Fast Moving Consumer Goods (FMCG), der schnell umschlagenden Konsumgüter. Und die Werbewert-Formel kann folglich ihre begrenzte Gültigkeit vorwiegend für diesen Bereich beanspruchen. Einbezogen wurden nur marketingübliche direkte Werbeaufwands- und Werbewirkungskriterien wie die von der A. C. Nielsen S + P Werbeforschung gemessenen Werbeausgaben und Medienbelegungen sowie die vom A. C. Nielsen Handelspanel ermittelten Informationen über Marktanteile und Distributionsänderungen je Marke: Werbedosis ist der aktuelle Werbeaufwand, der Werbeerfolg ist die aktuelle Marktanteilsbewegung. Zur Ermittlung von Abhängigkeiten wurden diese Daten dann einer ökonometrischen Analyse unterzogen. Über eine nonlineare multiple Regressionsanalyse wurden verrechnet: Die Marktanteile pro Doppelmonat bzw. die Veränderungen je Marke nach Wert, die Werbeausgaben für Print und TV, jeweils als Anteil der Marke an den Gesamtwerbeaufwendungen pro Produktgruppe (Share of Advertising = SOA) und die umsatzgewichtete Distribution. Verbal ausgedrückt, besagt die Werbewert-Formel: Der Marktanteil in der aktuellen Periode beruht zu einem großen Teil auf dem Marktanteil der Vorperiode. Der Koeffizient von 0,98 besagt dabei, dass am Ende der aktuellen Periode noch 98 Prozent des vorherigen Marktanteils gehalten werden, wenn keine Werbung erfolgt. Allerdings geht der Einfluss des Vorperioden-Marktanteils mit steigender Marktanteilsgröße immer stärker zurück. Die Variable Distribution macht sich nur im Fall von Distributionsänderungen direkt proportional bemerkbar. Bei unveränderter Distribution hat sie den Wert eins und folglich keinen Einfluss. Der Einfluss der Werbeinvestitionen stellt sich als Summe der Werbeanteile der einzelnen Mediengattungen dar. Sie tragen mit 15 bis 19 Prozent des Werbeanteils zur Marktanteilsveränderung bei. 209 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Der Werbewirkungskompass Ein nützliches Instrument der Wirkungskontrolle ist der von Erna Engelsing für IP Deutschland entwickelte Werbewirkungskompass. Der Werbewirkungskompass (WWK) von IP Deutschland Zweck des Werbewirkungskompasses ist die Kontrolle von Werbeinvestitionen. Er verfolgt zwei Ziele: die kontinuierliche Messung des Kommunikationserfolgs aller werberelevanten Marken aus ausgewählten Produktbereichen und die generelle Analyse der messbaren Einflussfaktoren des Werbeerfolgs. Seit September 1992 wurden – in Wellen von drei Monaten – jeweils 2000 Interviews durchgeführt, die sich auf elf Produktbereiche und 129 Marken beziehen. Ausgangspunkt der Überlegungen, die dem Werbewirkungskompass zu Grunde liegen, sind sechs Werbewirkungsfaktoren, deren Zusammenspiel den Werbeerfolg einer Marke bestimmt. Es sind dies: der Werbedruck, die Zielgruppenzugehörigkeit der angesprochenen Personen, die Branchenzugehörigkeit der jeweiligen Marken, der Werbedruck der Konkurrenzmarken, die Mediastrategie und die Kreation. Erfragt wird der Werbeerfolg durch direkte und indirekte Werbewirkungsparameter. Die direkten Werbewirkungsparameter sind spontane Werbeerinnerung bzw. Werbe-Awareness, Erinnerung an Details der Werbung, Sympathie für die Kampagne und die Beurteilung der Werbung. Indirekte Maße der Werbeeffizienz sind die spontane Markenbekanntheit, die gestützte Markenbekanntheit, Markensympathie, Markenverwendung, Kaufneigung und das Markenimage. Die Wirkungsdaten werden mit MA-kompatiblen Angaben zur Mediennutzung (Fernsehen, Hörfunk, Publikumszeitschriften und überregionale Tageszeitungen) verknüpft. Über vier Auswertungsstufen wird der individuelle Werbedruck pro Person errechnet. Damit soll gewährleistet werden, dass unterschiedliche Mediengattungen und unterschiedliche Formate im gleichen Medium nicht ungewichtet addiert oder nach subjektiven Kriterien gewichtet werden. Die Verrechnung der tatsächlichen Mediakosten mit den erhobenen Nutzungswahrscheinlichkeiten führt zum investierten Geldbetrag pro Person. Die Besonderheit des Werbewirkungskompasses besteht also darin, dass pro befragte Person auf der Grundlage der individuellen Mediennutzung sowie der Bruttowerbeaufwendungen pro Marke ein personenindividueller Werbedruck berechnet wird, der Auskunft über die tatsächlichen Kontaktkosten je Marke und erreichte Person gibt. Der Mediapfennig drückt den Werbedruck pro Person in Pfennig aus. Begründung: ,,Die objektive Messlatte für den Kommunikationserfolg ist allein der investierte Geldbetrag pro Person.“ 210 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Der Datenbestand des Werbewirkungskompasses ermöglicht marken- und personenindividuelle Auswertungen über die Zusammenhänge zwischen Werbedruck und Werbewirkungsindikatoren. Darüber hinaus kann man mit seiner Hilfe generalisierende Befunde über den Kommunikationserfolg gewinnen, die Auskunft über Niveau und Verlauf von acht Werbewirkungsindikatoren in Abhängigkeit vom personenindividuellen Werbedruck geben. Einige dieser Hauptbefunde lauten: Es besteht ein positiver Zusammenhang zwischen Werbedruck und den erfassten Wirkungsindikatoren, wobei die direkten Maße – vor allem Werbeerinnerung – stärker reagieren als die indirekten Werbewirkungsparameter. Entgegen der verbreiteten Auffassung besteht kein linearer Zusammenhang zwischen Werbeerinnerung und individuellem Werbedruck. 5 Prozent der Personen, die in den zurückliegenden drei Monaten keinen Kontakt mit den Werbemitteln einer Kampagne hatten, konnten sich dennoch an sie erinnern. Der Depotwert aus der Vergangenheit beeinflusst die Werbeerinnerung in der Gegenwart. Bei der globalen Werbeerinnerung an eine Marke weist die Wirkungskurve bis zu einem Betrag von vier Pfennig pro Person progressive Wachstumsraten auf. Dann folgt ein kontinuierliches Wachstum bis zu einem Erinnerungswert von 30 Prozent bei einem Werbedruck bis zu 25 Pfennig. Auch in dieser Untersuchung ergab sich also ein nicht linearer Zusammenhang zwischen Werbeaufwendungen und Werbeerfolg: Ab einem Werbedruck von fünf Pfennig pro Person müssen überproportional hohe Werbeaufwendungen eingesetzt werden, um eine weitere Steigerung zu erzielen. Zielgruppenspezifische Analysen zeigten, dass sich die stärksten Effekte bei Markenverwendern, jüngeren Menschen, Produktinteressierten, Menschen mit positiver Einstellung zur Werbung und bei niedriger Gebildeten ergaben. Der härtere Wirkungsparameter ,,Werbeerinnerung an Details“ beginnt mit einem niedrigen Depotwert von 3 Prozent und liegt bis zu einem Wert von 23 Prozent bei 25 Pfennig unter der Marge der globalen Werbeerinnerung. Die Kurve für ,,Kampagnensympathie“ liegt bis etwa 15 Pfennig oberhalb der globalen Werbeerinnerung und nähert sich dieser dann an. Die indirekten Werbewirkungsparameter weisen einen höheren Depotwert und insgesamt höherprozentige Wirkungswerte aus. Ein Vergleich der relativen Zuwachsraten zeigt, dass mit steigendem Werbedruck die primär gedächtnisabhängigen Parameter wie die Erinnerung an die Werbung die höchsten Zuwachsraten zeigen. Kaufneigung und Markensympathie dagegen weisen die geringsten Veränderungen aus. 211 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Bei der Untersuchung des Einflusses der Zielgruppen auf die Intensität der Werbewirkung standen folgende Fragen im Mittelpunkt: • Welche Zielgruppenmerkmale beeinflussen bei identischem Werbedruck pro Person die Höhe der Werbewirkungswerte? • Wie stark ist der Einfluss der einzelnen Zielgruppenmerkmale auf die Höhe der sieben Werbewirkungsparameter? • Welche Beziehung besteht zwischen Werbedruckklassen und Stärke des Zielgruppeneinflusses? Ergebnis: Das demografische Merkmal Alter beeinflusst die Werbeerinnerung am stärksten. Um die gleiche Werbeerinnerung wie bei Jüngeren zu erzeugen, brauchen Ältere einen mehrfachen Werbedruck. Für eine identische Erinnerungsquote von 23 Prozent ist bei 14- bis 29-Jährigen ein Werbedruck von nur vier Pfennig erforderlich, bei den über 60-Jährigen braucht man dafür 20 Pfennig. Je höher der Werbedruck, desto geringer der Alterseinfluss. Personen mit weiterführender Schulbildung können sich bei identischem Werbedruck deutlich besser an Werbung erinnern als Personen mit Volksschulbildung. Allerdings ist der Einfluss der Schulbildung auf das Niveau der Wirkungskurve nur halb so groß wie der des Alters. Die Markensympathie wird von der Schulbildung nicht sonderlich tangiert. Ein weiterer Faktor ist die Einstellung zur Werbung. Personen mit einer positiven Einstellung zur Werbung erzielen höhere Erinnerungswerte als Personen mit einer negativen Einstellung zur Werbung. Dabei wirkt sich die Einstellung zur Werbung in erster Linie und intensiv auf die Kampagnensympathie aus. Auch das Merkmal Produktinteresse ist relevant. Personen, die sich ,,sehr“ bzw. ,,auch noch“ für die jeweilige Produktgattung interessieren, erzielen bei identischem Werbedruck deutlich höhere Erinnerungswerte als Personen mit geringerem bzw. mit gar keinem Produktinteresse. Das Produktinteresse beeinflusst vor allem die globale und detaillierte Erinnerung an Werbung. Das Kriterium Markenverwender/-nichtverwender beeinflusst das Erinnerungsniveau an Werbung ebenfalls gravierend. In der Studie zeigt sich, dass Markenverwender, die in der aktuellen Periode keinem Werbedruck ausgesetzt waren, noch beachtliche Erinnerungsquoten von 17 Prozent erzielen. Nichtverwender liegen hingegen bei 4 Prozent. Während die Werbewirkungskurve bei den Markenverwendern ab fünf Pfennig kaum noch nennenswerte Zuwachsraten erbringt und nahezu auf diesem Niveau verharrt, ist das Gegenteil bei den Nichtver212 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de wendern der Fall. Sogar in den hohen Kontaktklassen sind noch beachtliche Zuwachsraten zu erzielen. Die Wirkungsvoraussetzungen in den untersuchten elf Branchen unterscheiden sich stark. Die wichtigsten Unterschiede beziehen sich auf (1) die Zahl der beworbenen Marken, (2) die Höhe des Markenetats einer Branche und (3) die Gesamtaufwendungen einer Branche. Hinzu kommt, dass in den elf Branchen sehr unterschiedliche Mediastrategien verfolgt werden, insbesondere beim Mediamix. Schließlich ist das Produktinteresse in den verschiedenen Bereichen unterschiedlich stark ausgeprägt. Die Branche und die Struktur der Zielgruppe haben einen erheblichen Einfluss auf die Werbewirkung. So weichen die Wirkungserfolge abhängig von der Branche teilweise gravierend vom Durchschnitt ab. Der Grund: Die verschiedenen Branchen werben unter unterschiedlich starkem Druck der Konkurrenz. Sie unterscheiden sich durch Höhe des Werbedrucks, durch die Mediastrategie und durch das Interesse des Konsumenten am jeweils angebotenen Produkt. Und weil die optimale Kontaktdosis für den Werbeerfolg je nach Zielgruppe variiert, entscheidet diese letztendlich, wie viele Media-Millionen fließen müssen, um die nötige Überzeugungsarbeit beim Rezipienten zu leisten. Gerade weil die Zielgruppenstruktur erheblichen Einfluss auf die Werbewirkung ausübt, müsse sie vorher herausgerechnet werden, damit auf diese Weise die Leistung von Mono- und Mix-Kampagnen sich forscherisch sinnvoll vergleichen lässt. Erst dann ergebe sich der tatsächliche Wirkungsbeitrag unterschiedlicher Mediastrategien. Engelsing: ,,Der beachtliche Einfluss der Zielgruppen auf die Wirkung von Kampagnen wird häufig als Medieneffekt missinterpretiert.“ Der Vorteil des Werbewirkungskompasses liegt darin, dass zwischen unterschiedlichen Produkten, Märkten, Branchen und Zielgruppen differenziert werden kann. Allerdings erfasst er, wie die meisten Verfahren der Werbewirkungsmessung, nicht das tatsächliche Konsumverhalten. Die ermittelten Daten zur Werbewirkung sind damit noch keine Garantie für die zweifelsfreie Abschätzung des Werbeerfolgs, denn selbst wenn Konsumenten sich an Spots erinnern, sie positiv bewerten und ihnen das vermittelte Image einer Marke gefällt, ist dies noch keine hinreichende Voraussetzung für eine tatsächliche Kaufentscheidung. Ein anderes Manko von Untersuchungen wie dem Werbewirkungskompass ist es, dass auch hier keine strukturierten und differenzierten Analysen des Zusammenhangs von Werbeinhalten und Werbewirkung vorgenommen werden. Die tatsächlichen Reaktionen der Rezipienten können daher nicht mit Sicherheit abgeschätzt werden. 213 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Fazit: Alle ökonometrischen Untersuchungen sind geprägt von dem Glauben, dass Millionen Fliegen nicht irren können. Die daraus abgeleiteten Verallgemeinerungen wiederum sind getränkt von der Philosophie des arithmetischen Mittels: Wenn etwas für 199 Marken stimmt, dann wird das doch wohl auch für die 200. Marke nicht ganz und gar falsch sein. Aber bereits die Verallgemeinerungen für die 199 Marken sind das Resultat von Mittelwertbildungen. Das Kennzeichen der heutigen Märkte ist aber eine wachsende Individualisierung der Marken, der Marktprozesse und der Kommunikationsmixe sowie eine hohe Komplexität der Zusammenhänge. Sie erfordern individuelle Analysen und nicht Durchschnittslösungen. Als ,,zentralen sozialtechnischen Leitsatz“ über beeinflussende Kommunikation bezeichnet der verstorbene Werner Kroeber-Riel die Einsicht: ,,Die Werbung kann sich nicht an einem einheitlichen Wirkungsmodell orientieren. Es ist zwar bequem und ermöglicht die Anwendung von Faustregeln, wenn sich Gestaltung und Kontrolle der Werbung an einem einheitlichen und einfachen Wirkungsmodell orientieren. Dieses Vorgehen führt aber in die Irre: Es gibt nicht die Werbung, sondern verschiedene Bedingungen und Darbietungsformen der Werbung, die zu ganz unterschiedlichen Wirkungen führen.“ Daran wird man sich gewöhnen müssen: Es gibt kein einheitliches Wirkungsmodell für die Werbung. Es wird auch nie eines geben. Die Kommunikationsforschung hat es mit komplexen Systemen zu tun. Deshalb kann es einfache Formeln für effiziente Werbung nicht geben. Sie sind bereits ein Fehler im Denkansatz. Um schließlich die anfangs gestellte Frage zu beantworten: Nein, natürlich sind die Ökonometrie und die ökonometrische Werbeforschung nicht am Ende. Aber ihr heuristischer Ertrag unterliegt seit mehr als einem halben Jahrhundert praktischer Anwendung dem Gesetz vom abnehmenden Grenznutzen. Der Forschungsaufwand wird immer gewaltiger, aber insgesamt kommt immer weniger heraus. Die Blütezeit der ökonometrischen Werbeforschung ist längst vorüber. 214 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Wie Auflagenzahlen und Reichweiten zusammenhängen Von Karl Steurer Problem Nr. 1 „Mein(e) Magazin/Zeitung hat eine Auflage von 50 000, die meines Konkurrenten eine Auflage von 45 000, erzielt aber eine höhere Reichweite. Da muss etwas falsch sein (nämlich die Studie/MA/LA).“ Mit diesem Beitrag werde ich versuchen, einen Schlussstrich unter dieses Thema zu ziehen. Nach gut 50 Jahren Diskussion wäre es an der Zeit. Denn die ersten Diskussionen tauchten auf, als laufende, standardisierte Leser-Analysen das Licht der Welt erblickten, also in den 50er-Jahren des vergangenen Jahrhunderts. Damals erblickte auch die Faustregel „1 Druck-Exemplar = 3 Leser“ das Licht der Welt, und man kann sie immer noch vereinzelt hören. Die Quelle dieser „Regel“ konnte nie eruiert werden. Inzwischen gibt es ja genug fundierte MediaAnalysen und Organe zur Auflagenkontrolle. Die verbreitete Auflage hat zu Recht die Druckauflage als zentralen Kennwert der Auflagenkontrolle abgelöst. Wenn ich im Folgenden von Auflage spreche, ist damit immer die verbreitete Auflage gemeint. Warum generieren zwei Zeitungen bzw. Magazine mit identer oder zumindest nahezu identer verbreiteter Auflage unterschiedlich große Leserschaften? Oder warum erzielt ein Magazin mit geringerer Auflage mehr Leser als eines mit höherer Auflage? Für die meisten Verleger – und das Problem existiert real nur für Verleger, Werbeagenturen tangiert es kaum – ist ein solcher Tatbestand unerklärlich und daher falsch. In diesem Zusammenhang sei auf den Umstand hingewiesen, dass sich kein Verleger je aufgeregt hat – psychologisch natürlich voll erklärbar –, wenn sein Objekt mehr Leser hatte als es ihm, egal nach welcher Berechnung, zukäme. Da die Auflagen geprüft und daher richtig sind, kann nur die MA/LA falsch sein, wenn die Relationen nicht stimmen. Denn es ist doch unmöglich, dass ich bei höherer Auflage weniger Leser habe als ein Mitbewerber. 215 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Weit gefehlt! Nur für Printmedien mit 1. identem Erscheinungsintervall 2. identer Auflagenstruktur 3. identem Typ (general, special) 4. identer Marketing-Zielgruppe kann erwartet werden, dass die Größe der Leserschaft ähnlich groß ist. Doch selbst Identität in diesen Punkten lässt nicht gleich große Leserschaften zwangsläufig erwarten. Je größer das Erscheinungsintervall, umso größer die Chance, potenzielle Leser (WLK) zu sammeln, und umso größer die Chance, daraus Leser zu generieren (LpA). Wenn zwei Magazine dieselbe verbreitete Auflage bescheinigt bekommen, eines davon aber ein Wochenmagazin ist, das andere ein Monatsmagazin, dann wird die Leserschaft in den wenigsten Fällen ident sein. Und Tageszeitungen haben im Allgemeinen (außer an Wochenenden) nur einen Tag Zeit, Leser zu „sammeln“, denn kaum jemand liest die Tageszeitung von gestern. Damit kommt dem Weitesten Leserkreis (WLK) eine zentrale Bedeutung zu, die selten honoriert wird, weil alles wie gebannt auf den Leser pro Ausgabe (LpA) schaut. Die Auflagenstruktur kann wesentlichen Einfluss auf das Sammeln von Lesern haben. Objekte mit gleicher Auflage, aber unterschiedlicher Auflagenstruktur sollten (im Zeitverlauf) unterschiedliche Leserzahlen produzieren. Die Leserschaft einer Zeitung, die fast ausschließlich im Abo verkauft wird, wird anders ausfallen als die einer Zeitung, die vorwiegend im Einzelverkauf oder gratis verteilt wird. Abos generieren in der Regel sichere und vor allem stabilere Leser. Gratis-Exemplare täuschen in ihrer Effizienz, und Mitglieder-Exemplare (Autofahrerclubs, Gewerkschaften, Vereine usw.) zeichnen sich durch einen niedrigen LpA aus. In Österreich liegt deren LpE durchwegs unter 2,0, wobei sogar ein Leser pro Exemplar (LpE) unter 1,0 aufgedeckt werden konnte, für einen Verleger ein undenkbares Faktum. Und was bringen Zeitungen und Magazinen mit einer hohen Auflage in Kaffeehäusern in Städten mit hoher Kaffeehauskultur, wie z.B. Wien? Eine hohe Kaffeehaus-Auflage kann beträchtliche Leserschaften generieren. Auch der Zeitungstyp spielt eine entscheidende Rolle für ihre Fähigkeit, Leser zu akkumulieren, ceteris paribus. Ein General-Interest-Magazin hat eine größere Chance, Leser zu sammeln, als ein Special-Interest-Magazin, da Ersteres eine größere Chance hat, Mitleser im Bezieherhaushalt (oder auch außerhalb) zu bekommen als Letzteres. 216 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Bei Special-Interest-Medien kommt noch das Problem des „Extended Reading = gedehntes Lesen (Lexikon-Effekt)“ als Einflussmöglichkeit auf den LpA hinzu, das durch keine vertretbaren Maßnahmen im Rahmen von Befragungen ausgeschaltet werden kann. Man denke vor allem an Reisemagazine, Computerzeitschriften, Magazine wie etwa P.M oder Bild der Wissenschaft. Aber auch die Marketing-Zielgruppe sollte nicht unberücksichtigt bleiben. Jeder Verlag wird in der Regel Vorstellungen haben, wer seine Käufer (Leser) sein sollen, mehr oder weniger abgesichert durch Marktstudien. Wenn nun die Marketing-Zielgruppe zweier Objekte nicht dieselbe ist, dann kann auch nicht erwartet werden, dass die Leserschaften, ceteris paribus, gleich hoch ausfallen. Oder glaubt jemand tatsächlich, dass 100 000 Exemplare von z.B. Bravo gleichviel Leser generieren wie 100 000 Exemplare für etwa Die Zeit oder CHIP oder Micky Maus? Wenn ich mir als Verleger ein spezielles Bevölkerungssegment für eine Publikation wähle, so kann ich doch nicht erwarten, eine nach einer „Faustregel“ erwartete Leserschaft zu generieren. Nur wenn für zwei Objekte diese Einflussvariablen weitestgehend ident sind, kann erwartet werden, dass gleiche Auflagen ähnlich viel Leser generieren. Doch, wie schon erwähnt, genügen auch diese Einflussvariablen nicht, Leserschaften aus gegebener Auflage befriedigend zu erklären. Aus Österreich weiß ich, dass die verbreitete Auflage etwa 75 Prozent der Varianz erklärt. Dies die Befunde aus 1998 und 2001. Ich erachte diesen Prozentsatz für ausgezeichnet. Was erwartete man sich? Einen vollkommenen Parallel-Verlauf der Leser- bzw. Auflagenkurve? Bis zu diesem Punkt handelt es sich bei unserem Problem um ein Problem des Vergleichs zweier oder mehrerer Printmedien zu einem Zeitpunkt. Obwohl Datenrelationen nicht von einem Land auf ein anderes übertragen werden dürfen – regressionsanalytische Beziehungen gelten immer nur für den analysierten Datensatz – so bin ich mir sicher, dass in keinem europäischen Land mit ausgeprägter Printmedienkultur ein auch nur annähernd paralleler Verlauf von Auflage und Leser entdeckt werden kann. Das heißt aber auch, dass mit der verbreiteten Auflage allein die Größe der Leserschaft weder erklärt noch prognostiziert werden kann. Letzteres wird immer ein Wunschtraum bleiben. Im Übrigen ist der LpE ein idealer Kennwert, der uns mit einem Blick die Diskrepanz Auflage/Leser aufzeigt. Diese Diskrepanz ist kein Beweis, dass die MA/LA falsch ist, sondern dass Auflagen und Leser in ihren Größenordnungen nicht parallel laufen. 217 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Wie schon gesagt: In Österreich erklärt die verbreitete Auflage allein gerade einmal zirka 75 Prozent der Varianz (R2). Die Daten für die beiden analysierten Jahre führen zum gleichen Ergebnis 1998: R2 = 76 % 2001: R2 = 77 % Hat jemand vielleicht mehr erwartet? Ich weiß: Die Verleger hätten gerne 100 Prozent. Und was bringt uns die Einführung der Auflagenstruktur als weitere erklärende Variable? Meiner Meinung nach viel, aber doch wohl nicht genug für den Verlagsmanager. Die Varianzaufklärung steigt 1998 auf gute 82 Prozent bzw. 2001 auf 85 Prozent, wobei der Anteil der Mitglieder-Exemplare bzw. EV-Exemplare den stärksten Einfluss auf die verbesserte Aufklärung haben. Die Stabilität scheint mir verblüffend, Differenzen auch durch mehr Titel und verbreiterte Strukturwerte im Jahre 2001 mitverursacht. Ich muss leider zum Teil theoretisieren, da die Datenlage in Österreich noch sehr unbefriedigend ist, soweit es die Auflagenkontrolle (ÖAK) betrifft. Diese gibt es in Österreich erst seit 1994, während Daten aus der MA seit 1992 jährlich verfügbar sind. Unterschiedliche Mitgliederzahlen, sich ändernde Definitionen, Aussteigen ganzer Firmentitel, Nicht-erheben-Lassen anderer Firmentitel erschweren noch immer eine fundierte Analyse über die Jahre hinweg, um die Modelle auf Stabilität prüfen zu können. Die beigefügten Tabellen der Regressionsanalyse mit der Auflage und Auflagenstruktur als UVn für 1998/2001 sollten dem Interessierten tiefere Einblicke in die Beziehungssituation in Österreich ermöglichen. 218 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de 219 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Problem Nr. 2 Nach langer Beschäftigung mit dem Problem Auflage – Leser ist für mich Problem Nr. 2 keines mehr. Die Ausgangsbehauptung heißt da: „Ich habe von 2001 auf 2002 meine (verbreitete) Auflage um 2000 gesteigert, in der MA sehe ich keinen Abdruck dieses Faktums.“ Die österreichische MA ist eine anerkannt gute Studie mit rund 17 500 Fällen, mit der deutschen MA sehr gut vergleichbar. Können wir erwarten, dass ein solcher Zuwachs schon messbar ist? Es kann sein, muss aber nicht sein. Eher nicht, denn die 2000 Zuwachs sind eine Bestandsgröße am Jahresende, entstanden aus mehr oder weniger kontinuierlichem Zuwachs über zwölf Monate, was auch auf die Interviews der MA zutrifft. Auswirken kann sich höchsten ein Wert zur Jahresmitte, der aber dann mit dem Wert zur Jahresmitte des vergangenen Jahres verglichen werden müsste. Das wird sicher nicht getan. Ich würde sagen, dass ein Netto-Zuwachs von 2000 Exemplaren erfassbar sein sollte, wenn dieser Zuwachs konzentriert in einem Bundesland anfällt. Mir ist nicht bekannt, dass – mit einer Ausnahme, die ich leider nicht zitieren darf – Verleger laufend Auflage, deren jahreszeitlichen Verlauf und die Auflagenstruktur analysieren. Mag sein, dass der eine oder andere dies tut. Man vergisst jedoch sehr leicht, wie viele Komponenten/Faktoren berücksichtigt werden müssen, um zu einem realistischen Ergebnis zu gelangen. 220 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Da wäre etwa zu berücksichtigen: 1. Lebenszyklus des Mediums. Der Lebenszyklus hat bedeutenden Einfluss auf die Leserschaft und weist erneut auf die Bedeutung des WLK hin. Dieser ist in der Anlaufphase tendenziell groß, sollte planungstechnisch so groß wie möglich sein. In der Stabilisierungsphase werden EV-Käufer möglicherweise zu Abonnenten, Unzufriedene fallen ab, die Mitleser werden weniger. 2. Entwicklung der Haushalte. Haushalte als Grundzellen der Generierung von Mitleser. Die Abspaltung der Kinderhaushalte erfolgt heute viel früher als vor Jahrzehnten. Mitleser verschwinden aus dem Vaterhaushalt, um den neuen Haushalt zu gewinnen, muss mehr verbreiten werden, also möglicherweise steigende Auflage bei gleich bleibender Leserschaft. 3. Entwicklung des Marktes. Alles, was im Laufe des Jahres im Markt abläuft – Sterben und Geborenwerden von Medien jeglicher Art, Copypreis-Entwicklung, allgemeine Wirtschaftslage, Auftauchen neuer Kommunikationsformen wie z.B. Internet –, ist vorab entweder unbekannt oder in seinen Auswirkungen schwer abschätzbar. Auf Basis all dieser Fakten – kaum mehr Hypothesen – konnte ich bei der EMRO-Tagung 2000 in Sorrent/Italien einige Modelle vorstellen, die es auch bei extrem starker Print-Typen-Mischung in sehr hohem Maße erlauben, die Plausibilität des LpA zu berechnen. Prognosen sind durch die Modelle nicht möglich, da eine wichtige Einflussvariable erst nach Verfügbarkeit der MA-Daten bekannt ist, nämlich der WLK. Mit der Einbindung des WLK in die Modelle als UV steigt die erklärte Varianz dramatisch, und zwar in einem Umfang, dass die Verleger fast über ihre 100 Prozent verfügen, die sie gerne hätten. Die Kennziffern WLK in Prozent Verbreitete Auflage in Tausend Auflagenstruktur (Abos, EV, Mitglieder, gratis) erklären den LpA bis nahe an 100 Prozent, sind also ausgezeichnete Plausibilitätskontrollen. Doch wie gesagt: Regressionsanalytische Befunde können nicht exportiert werden. In Regressionsgleichungen aus Österreich können nicht Kennwerte aus Deutschland eingesetzt werden. Die Ergebnisse wären falsch, weil sinnlos. Für Details siehe die Tabellen mit den Modellen inklusive des WLK. 221 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de 222 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de 223 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Fakten und Gedanken dieses Beitrages sollten genügend stark sein, um die Diskussionen in der hier skizzierten Art nicht mehr entstehen zu lassen. Die verbreitete Auflage ist nun einmal nicht in der Lage, Leserschaften zu prognostizieren oder direkt berechnen zu lassen, weil das gesamte Bündel menschlichen Verhaltens und der Markt als Ganzes nicht genügend bzw. adäquat berücksichtigt werden bzw. werden können. Mein Wunsch geht dahin, dass in Zukunft mehr Grundlagenforschung unter Einbeziehung aller möglichen Variablen betrieben wird. Die beiden Zitat-Sätze sollten als Reaktionsmuster auf MAs der Vergangenheit angehören. Last not least: Über das Thema Auflage – Leser wurde in den letzten Jahrzehnten viel geschrieben. Ich verweise vor allem auf das Manuskript von Michael Brown (1998) „The Relationship of Readership to Circulation: an Annotated Bibliography“, ein exzellenter Beitrag mit vielen Quellenangaben. Weitere wichtige Beiträge kamen aus der Feder von Hans-Erdmann Scheler, Klaus Peter Landgrebe, Jan Nordhoff, Erich Ockelmann, u.a.m. Karl Steurer ist einer der Elder Statesmen in der österreichischen Markt- und Mediaforschung. Er wurde 1929 in Meran, Südtirol, geboren und wuchs dort deutschsprachig auf. 1939 wurde er zwangsausgesiedelt und besuchte von 1942 bis 1951 das Humanistische Gymnasium in Innsbruck, 1951 Matura. 1951 bis 1955 Studium der Handelswissenschaften an der Hochschule für Welthandel (heute: Wirtschaftsuniversität) Wien. Steurer lebt seit 1956 ständig in Wien. 1956 bis 1963 Methodischer Leiter des Österreichischen GallupInstituts. 1964 bis 1991 Leiter der Mediaplanung und Marktforschung der Hager KG in Wien; Supervisor für die Ostagenturen der Firma (hauptsächlich Ungarn), Schulungstätigkeiten im Bereich Mediaplanung, Konsulent in den ehemaligen Ostblockstaaten für die Etablierung von Mediastudien, Grundlagenforschung, Schwerpunkte: Typologien und Implementierung qualitativer Daten in Mediastudien, multivariate Statistikverfahren. Außerdem 1968 bis 1979 Studium der Soziologie an der Universität Wien; 1979 Sponsion zum Mag. rer. soc. oec.. Aufgrund der Arbeit „Messung von Arbeitszufriedenheit. Entwicklung eines standardisierten Meßinstrumentes“ 1980 bis 1999 gerichtlich beeideter Sachverständiger für Werbung und Marktforschung beim Handelsgericht Wien. Seit 1992 ist Steurer freiberuflich tätig. 224 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Zum besseren Verständnis: Forschung über den Zusammenhang von Auflage und Reichweite Auflagedaten widerspiegeln Kaufverhalten, während sich in Leserschaftsdaten Kommunikationsverhalten ausdrückt. Das sind zwei verschiedene Paar Schuhe. Die Bemühungen, einen Zusammenhang zwischen beiden herzustellen, laufen stets dann hart gegen die Wand, wenn sie die verschiedenen Verhaltensweisen bloß mathematisch miteinander verknüpfen. Das kann nicht funktionieren, weil der Zusammenhang nicht mathematisch ist. Das hat indes die Forscher nicht davon abgehalten, es immer wieder aufs Neue zu versuchen. Eine Zeit lang galt die Zahl der Leser pro Exemplar (LpE), die aus der verbreiteten oder verkauften Auflage und der Gesamtzahl der Leser im Erscheinungsintervall ermittelt wird, als brauchbares Maß für die Reichweite eines Werbeträgers. Doch das erwies sich als Irrtum. In der Studie „An Examination of the Relationship Between Readers Estimates and Circulation“ (1970) versuchten dann John Bermingham, R. Gage und P. Mills, zwei Probleme zu klären: • warum die Reichweite und die Auflage von spezifischen Publikationen sich während einer bestimmten (meist kurzen) Zeit in entgegengesetzten Richtungen entwickeln • und welcher Art die Beziehung zwischen Reichweite und Auflage ist. Sie zeigten, dass bei sinkender Auflage von Zeitungen nur eine relativ geringfügige Senkung der LpE stattfindet, während bei einer deutlichen Zunahme der Auflage eine erhebliche Senkung der LpE zu erwarten ist. In seinem 1970 veröffentlichten Artikel „A Consideration of the Possibility of Predicting Readership from Circulation“ argumentierte Brian J. Pretty: Weil es keine direkte Beziehung gibt zwischen Auflage und Leserschaft und die zu Grunde liegende Beziehung höchst kompliziert ist, ist es vermutlich zwecklos, Untersuchungen zu diesen Beziehungen fortzusetzen. Deshalb sei es nicht möglich, Leserschaften aus Auflagen zu prognostizieren. In einem 1974 erschienenen Artikel über „Magazine Readers per Copy“ unterstrich Timothy Joyce, dass die Zahl der Leser pro Exemplar ein Durchschnittswert ist. Es ist möglich, dass z.B. 20 Prozent der Exemplare 50 Prozent der Leser sammeln. Vor allem zwei Faktoren beeinflussen nach Joyce den LpE-Wert: der 225 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Lesebedarf und das Angebot von Exemplaren. Verfügbarkeit in öffentlicher Auslage erhöht den LpE-Wert, Promotion-Aktivitäten zur Gewinnung von Abonnenten dagegen vermindern ihn. Der LpE werde folglich nie ein stabiler Wert sein. In Deutschland setzte man sich in den späten 1970er-Jahren verstärkt mit den schwankenden LpE-Werten auseinander, nachdem sich gezeigt hatte, dass die Schätzwerte zu den Abonnements- und Kaufzahlen zum Teil nicht mit der geprüften Auflage übereinstimmen sowie Auflageentwicklung und Reichweitentrends mitunter erheblich abweichen und zu instabilen LpE-Werten führen. Im Auftrag des Heinrich Bauer Verlags, Hamburg, führte die Schaefer-Marktforschung, Hamburg, 1978/79 eine sekundärstatistische Analyse durch, deren Ziel es war, die Beziehung zwischen dem Käufer pro Exemplar (KpX) und anderen Leserschaftsdaten in der Media-Analyse (MA) zu untersuchen. Ein „Bericht über eine Studie des Zusammenhangs zwischen Auflage und LpAWerten“, den Erich Ockelmann für die Technische Kommission der AG.MA 1979 verfasste, konstatierte: „Und es ist als sicher anzunehmen, dass unsere bisherige Vorstellung über den Zusammenhang zwischen Reichweite und Auflage zu korrigieren sein wird; einen einheitlichen Zusammenhang gibt es sicher nicht, die Relation erscheint ,titelbezogen‘ anhand der Struktur der Leserschaft.“ Der Bericht kam zu der Schlussfolgerung, dass sich zwischen den von der MA ermittelten LpA-Werten und den Auflagendaten ein enger Zusammenhang bei den betrachteten Titeln nachweisen lässt. Im Gegensatz zu einer ersten Annahme ist aber dieser Zusammenhang für alle Titel nicht mit Hilfe einer gleichen funktionellen Formel zu fassen. Die Titel zerfallen in drei Gruppen, zwischen denen die ermittelten Zusammenhänge stark differieren. Die drei Gruppen unterscheiden sich in der Weise, dass die multiplikativen Faktoren zwischen den LpAWerten als unabhängiger Variable und der Auflage als Variable sich wie 1 : 2 : 4 verhalten. Es zeigte sich die Tendenz, dass sowohl das Geschlecht wie die Altersstruktur und die durchschnittliche Anzahl der Zeitschriftenkontakte sich gleichförmig zwischen den Gruppen ändern, und zwar in dem Sinne, dass die Unterschätzung der Auflage dann eintritt, wenn die Leserschaften Ältere, Frauen und Personen mit unterdurchschnittlichen Zeitschriftenkontakten enthalten. In einem Bericht über „Auflage und Reichweite oder Vergleich von Daten aus IVW und MA“ verband Klaus Landgrebe das problematische Paar der häufigen und der seltenen Leser mit dem der aufgeschlossenen und der zugeknöpften Befragten, der Extravertierten und der Introvertierten. Er argumentierte, dass beide Verhaltensdimensionen gemeinsam auftreten können und sich zwischen je zwei Kombinationen daher Diskrepanzen ergeben werden. 226 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de In einer Trendanalyse zeigte Hans-Erdmann Scheler 1982, dass die LpX-Werte (Leser pro Exemplar) z.B. für den Stern zwischen 1956 und 1981 stetig von 10,9 auf 5,0 absanken. Das generelle Bild war fast das gleiche. Folglich widerspiegele die MA mit ihrem Erhebungsinstrument zumindest die großen Linien richtig. 1981 ging der südafrikanische Mediaforscher Wally Langschmidt in seinem Aufsatz „A Possible Link Between Readership and Circulation“ erneut dem Zusammenhang zwischen Auflage und Reichweite nach und entwickelte aus den verschiedenen Merkmalen der Leserschaft eines Titels eine Berechnungsvorschrift zur Prognose der Auflage. Diese sieben Stufen umfassende Vorschrift lieferte errechnete Werte, die mit den überprüften Auflagedaten eine Korrelation von 0,92 zeigten. Die einzelnen Schritte der Vorschrift lauteten: 1. Stufe: Analyse der Leserschaften spezifischer Publikationen auf der Basis der Angaben zur Lesehäufigkeit. 2. Stufe: Addieren aller Angaben zum Lesen in drei bis sechs der insgesamt sechs Frequenzgruppen. 3. Stufe: Jede einzelne der insgesamt sechs Lesergruppen als Prozentsatz der drei bis sechs Frequenzgruppen ausdrücken, wie sie in der 2. Stufe berechnet wurden. 4. Stufe: Ablesen der theoretischen Wahrscheinlichkeit für den in der 3. Stufe berechneten Prozentsatz. 5. Stufe: Berechnung der durchschnittlichen Leserzahl durch Multiplikation der Leser in jeder Frequenzgruppe mit der mittleren Wahrscheinlichkeit in der jeweiligen Gruppe. So ergibt sich für „1 von 6“ die Wahrscheinlichkeit 0,1667 „2 von 6“ die Wahrscheinlichkeit 0,3333 „3 von 6“ die Wahrscheinlichkeit 0,5000 usw. 6. Stufe: Die theoretische Käuferperiode wird nun durch Multiplikation der durchschnittlichen Leserzahl aus der 5. Stufe mit den Wiederholungswahrscheinlichkeiten ermittelt, die in der 5. Stufe verwendet wurden. 7. Stufe: Nun lassen sich die Leser während der „Käuferperiode“ aus der 6. Stufe verwenden und mit den angegebenen Selbstkäufer-Prozentsätzen für jede einzelne Publikation aus jeder Frequenzgruppe multiplizieren. Wenn also z.B. 17 Prozent aus der „drei von sechs“-Gruppe angeben, sie hätten ihr letz227 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de tes Heft selbst gekauft, dann werden die Leser während der „Käuferperiode“ in der „drei von sechs“-Gruppe mit 0,17 multipliziert. 1985 schließlich entwickelte Michael Brown ein mathematisches Modell, das die Beziehungen zwischen Auflage und Reichweite für unterschiedliche Länder, Messmethoden, Publikationen und Zeiten wiedergibt. Brown untersuchte zunächst 21 Tageszeitungen in Südafrika mithilfe von Verfahren der Regressionsanalyse und entwickelte eine Gleichung mit einem sehr hohen Korrelationskoeffizienten von r = 0,963. 93 Prozent der Varianz (= r2) in der Beziehung „Leserschaft – Auflage“ werden also durch diese Gleichung erklärt. Für die 21 südafrikanischen Tageszeitungen lautete sie: log10L = 0,913 + 0,909 log10A r = 0,963 r2 = 0,93 Darin bedeutet: L = Leserschaft in Tausend (laut Mediaanalyse) und A = verkaufte Auflage in Tausend. In die Rechnung für die Zeitschriften gingen 23 wöchentliche, vierzehntägliche und monatliche Titel ein, mit Auflagen zwischen 30 000 und 481 000 Exemplaren und Leserzahlen zwischen 95 000 und 2,9 Millionen. Der Korrelationskoeffizient für Zeitschriften betrug r = 0,80. Bei einer weiteren Überprüfung der Leser- und Auflagendaten einer Tageszeitung über neun Jahre hinweg (1975 bis 1983) ergab sich eine Korrelation von 0,96. Eine weitere vergleichende Überprüfung in Belgien, Finnland, Frankreich, Großbritannien, Kanada, den USA und Deutschland erbrachte ähnlich hohe Korrelationen. So wurden in Deutschland beispielsweise 20 Wochenblätter aus der MA 83 analysiert (ausgeschlossen wurden Zeitschriften mit Lesezirkelverbreitung, weil bei Lesezirkel-Titeln die Auflage/Reichweite-Beziehung ganz anders sein dürfte). Die Gleichung für Deutschland lautet: log10L = 0,346 + 0,885 log10A r = 0,935 r2 = 0,87 Mithilfe dieses Modells lassen sich also Leserschaftsmessungen, die als zu niedrig beanstandet werden, auf ihre Plausibilität prüfen. Ferner können sich neue Titel a priori ein ungefähres Bild davon machen, mit welcher Leserschaft sie 228 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de rechnen können und wie die Leserschaft sich mit steigenden Auflagen entwikkeln wird. Aus Browns Analyse ging auch hervor, dass die Beziehungen zwischen Auflage und Reichweite nicht linear sind. Dies erklärte er folgendermaßen: • Wenn die Auflage erhöht wird, steigt die Zahl der Gelegenheiten für Zweitleserschaften, und zwar proportional. • Aber der Anteil dieser neuen Gelegenheiten, die tatsächlich zu einer Mitleserschaft führen, wird kleiner, und zwar aus zwei Gründen: 1. steigt die Wahrscheinlichkeit, dass Personen, die zufällig auf ein Exemplar stoßen, schon Leser sind. Das heißt, die Zahl derer, die das Heft noch nicht gelesen haben, sinkt. 2. Eine zunehmende Auflage könnte bedeuten, dass die verbleibenden Nicht-Leser ein immer geringeres Interesse an dieser Publikation mitbringen. Folglich ist es unvermeidlich, dass jedes hinzugefügte Exemplar weniger Leser an sich zieht als das vorangehende. In der Media-Analyse (MA) der Arbeitsgemeinschaft Media-Analyse (AG.MA) wird bei der Prüfung der Ergebnisse anhand von ersten Ausdrucken der Tabellen „Generalübersicht Zeitschriften, Wochenzeitungen, Supplements“ zunächst ausgezählt, bei wie vielen Leserschaften die Reichweiten gestiegen oder gefallen sind. Dann vergleicht das Prüfungsgremium die Entwicklung der Auflagen mit der der Reichweiten. Sind die Tendenzen gleich laufend aufwärts oder abwärts gerichtet, ist anzunehmen, dass die zwischen zwei Media-Analysen zu beobachtenden Reichweitenveränderungen auf Marktbewegungen zurückzuführen sind. Abwesenheit von Widerspruch zwischen Auflagen- und Reichweitenentwicklung ist dennoch kein schlüssiges Beweismittel. Erich Ockelmann hat am Material der Media-Analyse 73 bis 77 für die 59 Zeitschriften, die in allen fünf Analysen erhoben wurden, nachgewiesen, „dass die gemessenen Werte der Reichweite keineswegs ,neben‘ den Auflagen stehen, sondern sehr eng mit diesen gekoppelt sind“. Die übrig bleibenden Fälle, in denen Auflage und Reichweite sich nicht gleich laufend, sondern entgegengesetzt entwickelt haben, werden einer besonders eingehenden Prüfung unterzogen: Die Expertengruppe betrachtet nicht nur das Ergebnis für die Gesamtbevölkerung, sondern auch in allen Aufgliede229 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de rungen nach demografischen Merkmalen, vergleicht die aus den Segmentationen vorliegenden Verteilungen auf die Gruppen der Lesewahrscheinlichkeit, um Veränderungen in der Regelmäßigkeit des Lesens aufzuspüren, und geht schließlich noch den externen Überschneidungen mit anderen Pressemedien nach. Findet man bei dieser systematischen Sichtung aller Veränderungen keine plausiblen Erklärungen, wird noch überprüft, mit welcher Sicherheit die Unterschiede zwischen Ergebnissen aus beiden Analysen zufällig oder wesentlich sind. Literatur: Bermingham, John/Gaga, R./Mills, P.: An Examination of the Relationship Between Readers Estimates and Circulation. Thomson Awards for Advertising Research 1970 Brown, Michael: Von der Auflage zur Reichweite. In: Vierteljahreshefte für Media und Werbewirkung Heft 2/1986, S. 2–5 Goerlich, Bruce: The Relationship of Changes in Circulation to Changes in Total Audience. Paper Presented at the Worldwide Readership Research Symposium in San Francisco 1993 Gugel, Craig: The Case for Unadjusted Readership Data. In: Journal of Advertising Research September/October 1993, S. 2 ff. Landgrebe, Klaus Peter: Auflage und Reichweite, oder Vergleich von Daten aus IVW und MA. Memorandum. Gröbenzell 1982 Langschmidt, Wally: An Open Letter to My Fellow R.P.C. Sufferers. Johannesburg 1984 Langschmidt, Wally: The Effects of Age of Issue and Origin of Copy on Readership Results. Paper Presented at the Worldwide Readership Research Symposium. Montreal 1983. Langschmidt, Wally: A Possible Link Between Readership and Circulation. Paper Presented at the Worldwide Readership Symposium New Orleans 1981 Lindberg, I.: Circulation and Readership: Trend Analysis. Paper Presented at the Readership Research Symposium. New Orleans 1981 230 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Noordhoff, Jan: Auflage und Reichweite. Die Problematik der Leser pro Exemplar. In: Vierteljahreshefte für Media und Werbewirkung Heft 3/1985, S. 27–32 Ockelmann, Erich: Bericht über eine Studie des Zusammenhangs zwischen Auflage und LpA-Werten. Wiesbaden, 24.7.1979 Pretty, B. J.: A Consideration of the Possibility of Predicting Readership from Circulation. An Entry for the Thomson Gold Medal Award 1970 Scheler, Hans-Erdmann: Reichweiten und Auflagen von Publikumszeitschriften in Langzeitbetrachtungen. In: Interview und Analyse, Nr. 1/1982, S. 4–8 Scheler, Hans-Erdmann: Auf der Suche nach Faktoren, die die Reichweiten der Publikumszeitschriften steuern. In: Interview und Analyse 3, 1982, S. 24 ff. Wenzel, Winfried: Auflage ist nicht alles, aber ohne Auflage ist alles nichts. In: Media Spectrum Heft 5/1994, S. 19 ff. Weser, Adrian: Auflage könnte Zusatzwährung werden. In: Horizont, 12. Jg., Nr. 39, 1995, S. 65 231 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Revolution im Gedächtnis Von Wolfgang J. Koschnick Die Werbewirkungsforschung steht möglicherweise vor einem spektakulären Quantensprung. Er könnte die Kenntnisse darüber, wie Werbung nun wirklich wirkt, revolutionieren. Bisher ging alle Werbeforschung stets von der Vorstellung aus, dass die Adressaten alle Werbung mehr oder minder bewusst verarbeiten, sie im Kopf oder im Herzen verarbeiten und sich dann entsprechend verhalten. Doch Alltagserfahrung, Plausibilitätserwägungen und auch Forschungsergebnisse führten zu einem allgemeinen Unbehagen über diese gar zu einfachen Vorstellungen darüber, dass die Konsumenten Werbung lernen sollten – ganz so wie sie soziales Verhalten durch Beobachtung ihrer Umwelt lernen. Soziale Rollenmuster und Alltagsverhalten mögen ja in einer Vielzahl von Beobachtungs- und Aneignungsprozessen gelernt werden. Aber warum sollte der Prozess, auf Grund dessen Werbung wirkt, ähnlich vonstatten gehen? Ein Mensch eignet sich ja Rollenmuster in einem langwierigen Prozess durch Beobachtung erfolgreichen Bewältigungs- und Problemlösungsverhaltens an. Doch das ist etwas grundsätzlich anderes als die Akzeptanz eines Werbespots, der den regen Gebrauch einer bestimmten Essigmarke oder eines bestimmten Zahnprothesenreinigers empfiehlt. Irgendetwas an den allgemeinen Lerntheorien der Werbewirkung ist grundverkehrt. Werbung wird weder ausschließlich bewusst noch unbewusst gelernt. Da spielen andere Faktoren eine entscheidende Rolle. Dieses Gefühl hatten Kritiker und Beobachter der klassischen Werbeforschung schon immer. Es gab aber bis vor kurzem nichts Besseres. Und deshalb waren die Lerntheorien der Werbewirkungsforschung allgemein akzeptiert – wenn auch mit mulmigen Gefühlen. Schon der Denkansatz ist abwegig: Wer etwas lernt, setzt sich hin und macht eine bewusste Lernanstrengung. Egal wie widerwillig: Lernen kann man nur, wenn man das bewusst tut. Selbst wenn man keine Lust dazu hat, muss man sich wenigstens Mühe geben. Und bei der Werbung ist es genau umgekehrt: Werbung wirkt niemals, weil die Leute sie sehen wollen, sondern immer nur, obwohl sie sie doch gar nicht sehen wollen. Die ganze Kunstfertigkeit besteht ja gerade darin, die Leute notfalls auch gegen ihren eigenen Willen zum Hinschauen zu bringen. Die Lerntheorie suggeriert geradezu den Eindruck, dass Beeinflussung durch Werbung in Werbeträgern nach dem klassischen Reiz-Reaktions-Schema funktioniert: Der Konsument lernt die Botschaft, wägt die Argumente, um dann zu 233 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de seiner Kaufentscheidung zu kommen. Doch wie soll jemand Argumente lernen und abwägen, die ihn gar nicht interessieren? Schlimmer noch, die ihm völlig schnurz und piepe sind? Neuerdings haben sich die Forscher einige Krücken gebaut. Natürlich gibt es auch Formen des inzidentellen, des nicht bewussten Lernens. Danach schnappen also die Konsumenten Werbung eher beiläufig auf, oder sie erkennen die in Bildern gewissermaßen versteckte Botschaft. Aber auch das hilft im Grunde genommen nicht weiter. Doch dann machten die Hirnforscher eine sensationelle Erfahrung, mit der sie zunächst nicht so recht etwas anfangen konnten. In den siebziger Jahren entdeckten sie, dass Patienten mit vollständiger Amnesie als Folge schwerer Kopfverletzungen im Stande waren, neue Fertigkeiten zu erlernen, ohne sich daran zu erinnern. Zeigte man den Patienten beispielsweise ein Puzzle mit der Bitte, es zu lösen, taten sie es. Tags darauf konnten sie sich zwar überhaupt nicht mehr daran erinnern, lösten das Problem aber schneller als am Vortag. Am dritten Tag beendigten sie die Aufgabe noch schneller, erneut, ohne sie zu erkennen. Diese Studien der Hirnforscher zeigten, dass Amnesiepatienten ohne bewusste Erinnerung irgendetwas speichern, das ihr Verhalten nachhaltig beeinflusst. Es ist ratsam, sich in diesem Zusammenhang jede anzügliche Bemerkung darüber zu verkneifen, dass die Befunde aus dem Verhalten von Hirnverletzten nicht unbedingt eins zu eins auf das Verhalten von Werberezipienten zu übertragen sind. Das entspricht ja auch der praktischen Forschungserfahrung von Markt- und Mediaforschern ebenso wie der von Marketing- und Werbepraktikern: Es gibt Kampagnen, in deren Folge starke Wirkungen vermutet werden dürfen. Es sind nicht zwangsläufig und immer diejenigen Kampagnen, in denen die traditionellen Wirkungsindikatoren wie Markenerinnerung, Werbeerinnerung etc. etc. hohe Werte erzielen. Es gibt auch starke Wirkungen ohne günstige Indikatoren, und es gibt starke Wirkungen mit günstigen Indikatoren. Es ist so ähnlich wie bei den Amnesiepatienten: Da ist irgendetwas, was wirkt. Doch was könnte das sein? Die implizite Erinnerung wurde schließlich auch bei gesunden Menschen als ein Faktor erkannt, der alle möglichen Verhaltensweisen beeinflusst, auch die Beurteilung der Lautstärke gesprochener Worte, die Sympathie von Images, die Berühmtheit von Namen und die Erinnerungswürdigkeit von Anzeigen. Werbungtreibende stützen sich seit langem auf verschiedene Faktoren wie ansteckende Melodien, Humor, Identifikation, um ihren Werbemitteln einen starken Recall oder eine gute Wiedererkennung zu sichern. All das ist in der Psy234 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de chologie des Gedächtnisses wohl bekannt. Der amerikanisch-österreichische Nobelpreisträger Eric Kandel hat in den neunziger Jahren die molekularen Mechanismen des Gedächtnisses entschlüsselt. Sein erstes großes Verdienst für die noch jungen Neurowissenschaften bestand darin, an möglichst einfachen Versuchsobjekten die Gedächtnisvorgänge zwischen den Nervenzellen zu studieren. So entschlüsselte er, wie Sinnesreize im Netzwerk der Neuronen gespeichert werden. Für die Aufdeckung der molekularen Vorgänge, die dem Lernen und Erinnern zu Grunde liegen, erhielt er 2000 den Medizin-Nobelpreis. Sicher ist laut Kandel, dass Erfahrungen und Erinnerungen lebenslang interagieren. Das lässt sich auch physiologisch erklären: Alle bewusst vom Hirn aufgenommenen Daten werden zunächst in einer Hirnregion namens Hippocampus verarbeitet. Von dort werden sie in die Großhirnrinde geleitet und gespeichert – und zwar genau an der Stelle, an der ursprünglich der wahrgenommene Reiz verarbeitet wurde. Im Gehirn gibt es also einen Ort, der sowohl dafür verantwortlich ist, ein bekanntes Gesicht zu erkennen, als auch dafür, ein noch unbekanntes Gesicht zu speichern. Wahrnehmen und Speichern finden am selben Ort statt. Und Erfahrung und Erinnerung beeinflussen sich aus diesem Grund auch wechselseitig. Ganz so wie Sigmund Freud das gesehen hat, bestätigt die moderne Gedächtnisforschung, dass es viele unbewusste Vorgänge im Hirn gibt. Das ist inzwischen gesichertes Wissen: Vieles von dem, was ein Mensch weiß, ist ihm gar nicht bewusst. Allerdings hat sein unbewusstes Gedächtnis nichts mit seinen sexuellen Trieben zu tun. Die Inhalte des unbewussten – oder, wie die Hirnforscher sagen, impliziten – Gedächtnisses sind viel banaler. Wenn man lernt, Auto zu fahren oder Tennis zu spielen, dann macht man die Bewegungen, ohne darüber nachzudenken, den Fuß nach vorn zu drücken oder den Arm nach hinten zu schwingen. Dies funktioniert automatisch und involviert nicht den Hippocampus, der für das Abspeichern bewusster oder expliziter Erinnerungen zuständig ist. Doch das gilt keineswegs nur für motorische Fähigkeiten. Auch die menschliche Wahrnehmung wird zu einem großen Teil vom impliziten Gedächtnis gespeichert. Objekte werden automatisch erkannt. Besonders deutlich lässt sich das bei Amnesiepatienten studieren, also Menschen mit einem Ausfall des expliziten Gedächtnisses. 235 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Wie das Gedächtnis nach dem heutigen Stand der Forschung funktioniert Zunächst verarbeitet die Großhirnrinde alle Sinnesreize. Entscheidend ist: An diese Wahrnehmung existiert eine Erinnerung auch dann, wenn sie dem Erinnernden nicht bewusst ist. Die Forschung spricht vom impliziten Gedächtnis. Das implizite Gedächtnis hat zwei Bestandteile: (1) Prozedurale Informationen: wie z. B. Schwimmen, Fahrradfahren, Treppensteigen; (2) Priming: sämtliche Informationen der unbewussten Wahrnehmung, die also nicht das Bewusstsein erreicht haben. Mit ihrer Hilfe lassen sich beispielsweise flüchtig gelesene Worte schneller durch „Raten“ lesen. Um überhaupt ins Bewusstsein zu dringen, müssen die Sinnesreize an den Hippocampus weitergeleitet werden. Er entscheidet darüber, welche Informationen an die Großhirnrinde zurückgesendet werden. Werden sie zurückgesendet, so bilden sie den Inhalt des expliziten Gedächtnisses. Das explizite Gedächtnis wiederum besteht aus zwei Teilen: (1) das episodische Gedächtnis speichert alle persönlichen Erlebnisse und die zugehörigen Emotionen; (2) das semantische Gedächtnis speichert Fakten, Informationen, Kenntnisse. Da gab es einen Patienten, der mit neun Jahren einen Fahrradunfall hatte. Von den Verletzungen bekam er epileptische Anfälle. Die nahmen derartig zu, dass ihm ein Teil seines Schläfenlappens und seines Hippocampus entnommen werden musste. Danach hörten die Anfälle zwar auf, aber der Patient litt seither an einem Gedächtnisausfall: Er erinnerte sich zwar noch an alle seine Erlebnisse vor der Operation. Auch für sehr kurze Zeit konnte er Dinge behalten. Aber er konnte keine Kurzzeit-Informationen mehr ins Langzeitgedächtnis befördern. Deshalb vergaß er direkt nach dem Essen, dass er soeben gegessen hat, und wollte sofort weiteressen. Oder: Auf Kindheitsfotos erkannte er sich, im Spiegel dagegen nicht. Das Interessante ist, dass sich der Patient zwar nicht mehr an Personen, Orte und Objekte, die er wahrgenommen hatte, zu erinnern glaubte. Dennoch funktioniert sein implizites Langzeitgedächtnis weiter. Das zeigten sein Verhalten und seine Gefühlsreaktionen ganz eindeutig. Es ließ sich auch experimentell überprüfen: Wenn er zum Beispiel ein Wort las und es zwei Stunden später wieder mit ein paar fehlenden Buchstaben vorgeführt bekam, konnte er dieses Wort wesentlich schneller entziffern als eines, das er vorher nicht gesehen hatte, obwohl er in jedem Fall überzeugt war, es noch nie zuvor gesehen zu haben. Man kann daraus folgern, dass der Mensch sehr vieles automatisch und unbewusst speichert und dass dieser Mechanismus offensichtlich im Gehirn unabhängig 236 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de vom Vorgang der bewussten Erinnerung abläuft. Das ist die entscheidende und weltbewegende Erkenntnis für die Werbewirkungsforschung. Darüber, welche Rolle diese unbewussten Erinnerungen spielen, gibt es zwei Ansichten: (1) Sigmund Freud behauptete, es würden alle Ereignisse abgespeichert, die der ersten Lebensjahre jedoch im Unterbewusstsein; deshalb komme man an diese vergrabenen Erinnerungen nur mit speziellen psychoanalytischen Methoden heran. (2) Die meisten Biologen hingegen glauben, dass das Gehirn eines Säuglings noch nicht so weit sei, dass es alles abspeichern kann. Die modernen Hirnforscher vermuten also, dass es im menschlichen Hirn noch Erinnerungen an das erste Lebensjahr, womöglich sogar an die Zeit vor der Geburt gibt – nur dass der Mensch nicht an sie herankommt. Dabei darf man sich allerdings nicht die uns bekannte Form des episodischen Gedächtnisses vorstellen, also die Fähigkeit, Vorgänge in ihrer historischen Kontinuität zu erkennen. Das können Kleinkinder sicher noch nicht. Die Neurowissenschaften haben übrigens festgestellt, dass die für Gedächtnismechanismen zuständigen Proteine sogar schon in Würmern und in Hefebakterien zu finden sind. Da zeige sich, meinen die Hirnforscher, dass die Evolution keine genetische Information wegwirft. Evolution verwendet Moleküle, die sich einmal als nützlich erwiesen haben, wieder und wieder. Sie formt die einzelnen Teile nur um. Der Schlüssel zur Gedächtnisfähigkeit besteht darin, dass die Verbindungen der Nervenzellen, die Synapsen, plastisch sind. Sie können sich unter dem Einfluss von Erfahrung verändern. Das bedeutet: Erfahrung verändert das menschliche Gehirn. Und das wiederum führt zu der Feststellung, dass jedes Individuum ein anatomisch gesehen einzigartiges Gehirn hat, weil es von Erfahrungen und Erlebnissen geformt wurde. Es gibt ein Molekül, das die Weiterleitung der Information vom Kurz- ins Langzeitgedächtnis blockiert. Nur wenn die Wirkung dieses Moleküls unterdrückt wird, kann ein neuer Inhalt dauerhaft den Weg ins Gedächtnis finden. Untersuchungen von Tim Perfect und Sue Heatherley von der britischen Bristol University haben deutlich gemacht, dass diese Elemente nicht notwendigerweise zu einer guten impliziten Erinnerung führen, ja dass sogar manche Faktoren, die die bewusste Erinnerung stärken, der impliziten Erinnerung im Weg stehen. 237 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Wenn beispielsweise Versuchspersonen ihre Antwort auf eine Frage selbst ausarbeiten, dann erinnern sie sich später im Recall- oder Wiedererkennungstest besser daran, als wenn sie die Antwort einfach ablesen. Doch wenn die implizite Erinnerung gemessen wird, dann schneiden jene, die die Antwort einfach ablesen, oft besser ab, als die, die sie selbst erarbeiten. Im Übrigen hat sich herausgestellt, dass die implizite Erinnerung sehr empfindlich auf Wahrnehmungsmerkmale wie Farben, Schriftarten, Größe etc. reagiert. Drei Aspekte des impliziten Gedächtnisses sind für Werbungtreibende von Bedeutung: (1) Das implizite Gedächtnis betrifft eher das Verhalten der Leute als das, woran sie sich erinnern können; (2) es ist völlig unabhängig von der bewussten Erinnerung; (3) emotionale Reaktionen sind eng mit dem impliziten Gedächtnis verknüpft. Es gibt sichere Anhaltspunkte dafür, dass die Empfindungen der Leute gegenüber Wörtern, Bildern oder Werbemitteln auf emotionaler Ebene unabhängig von einer Erinnerung im konventionellen Sinne existieren: Gefühle können vollständig auf impliziter Erinnerung basieren. Daraus lässt sich schließen, dass die Verwendung von Erinnerung (Recall) und Wiedererkennung (Recognition) als Maßstab zur Bestimmung des wahrscheinlichen Werbeerfolgs in der Werbewirkungsforschung nicht sehr Erfolg versprechend ist. Die Forschung zur impliziten Erinnerung erinnert stark an diese Untersuchungen zur unterschwelligen Werbung. Die Leute waren bei der Präsentation von Bildern auch nicht in der Lage, sie besser zu identifizieren. Doch wenn sie aufgefordert wurden, zu entscheiden, welche Bilder attraktiver waren, wählten sie immer jene, die ihnen bereits unterschwellig präsentiert worden waren. Dasselbe Resultat zeigte sich in Tests, die Perfect und Heatherley im Auftrag der Financial Times mit Printanzeigen durchführten, die völlig normal gesehen, anschließend aber vergessen worden waren. Beim Test dienten Seiten der Financiail Times als Testmaterial. Dabei stellte sich heraus, dass Anzeigen die Gefühle der Leute gegenüber dem inserierten Material beeinflussen können, ohne dass sie es als etwas bereits einmal Gesehenes erkennen. Das Experiment verlief so, dass die Versuchspersonen, die meinten, an einer Studie über Layout und Design teilzunehmen, gebeten wurden, Seiten der Financial Times für 45 Sekunden zu überfliegen und Kommentare dazu abzugeben. Tatsächlich jedoch handelte es sich um einen Erinnerungstest für das Werbema238 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de terial auf den Zeitungsseiten, von denen einige allerdings überhaupt keine Anzeigen enthielten. Die Testpersonen wurden gebeten, von jeder Seite möglichst viel Information aufzunehmen; außerdem hatten sie pro Seite eine Frage zu beantworten (z.B. „Welcher Name stand in der Headline?“). Am nächsten Tag wurden sie in einer zweiten Sitzung in zwei Vergleichsgruppen aufgefordert, eine Reihe von Anzeigen, Logos und in Standardformat gedruckte Firmennamen zu bewerten. Unter diesen Elementen befanden sich auch solche, die sie zuvor als Anzeige in der Financial Times gesehen hatten. Sie wurden den beiden Versuchsgruppen zu gleichen Teilen untergeschoben. Nachdem sie jedes Element beurteilt hatten, wurden sie darüber informiert, dass darunter einige der Anzeigen aus der Financial Times vom Vortag versteckt waren, und gebeten, diese zu identifizieren. Die Wiedererkennung lag für Printanzeigen nach 24 Stunden bei rund 25 Prozent, während sie für die Logos und Firmennamen bei null lag. Doch trotz der geringen Wiedererkennungsrate tendierten die Versuchspersonen zur Bevorzugung der Anzeigen und Logos, die sie vorher schon gesehen hatten. Sie empfanden speziell die Anzeigen als sympathischer, erinnerungswürdiger, unverwechselbarer und die Logos als erinnerungswürdiger sowie unverwechselbarer. Werbemittel haben also offensichtlich auch dann Auswirkungen auf das Verhalten, besonders auf emotionale Urteile, wenn sie nicht wieder erkannt werden. Werbemittel, die gesehen, aber wieder vergessen werden, werden später trotzdem als sympathischer, erinnerungswürdiger und unverwechselbarer empfunden. Die Wahrscheinlichkeit einer emotionalen Präferenz ist unabhängig davon, ob die Anzeige wieder erkannt wird oder nicht. Daraus schlussfolgerten Perfect und Heatherley: „Messungen der Werbewirksamkeit, die sich einzig auf das bewusste Erinnerungsvermögen stützen, können die Effektivität von Werbemitteln oder Kampagnen unterschätzen, denn es kann sein, dass eine Anzeige zwar nicht erinnert wird, aber unbewusste Auswirkungen haben kann. Die implizite Erinnerung ist für andere Faktoren empfänglich als das explizite Gedächtnis. Wer die unbewussten Veränderungen in der Einstellung seiner Zielgruppe lenken und bestärken will, muss also auch jene Elemente in seiner Werbung berücksichtigen, die eine gute implizite Erinnerung ermöglichen, statt ausschließlich für eine bewusste Erinnerung seiner Anzeige zu sorgen. Dazu gehört der gezielte Einsatz von Farbe, Schrifttyp und Größe etc.“ (Quelle: Perfect, Tim/Heatherley, Sue: Implict Memory in Print Ads. In: Admap January 1996, S. 41 ff.) 239 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de Welche Implikationen die Unterscheidung zwischen implizitem und explizitem Gedächtnis für die Werbewirkungsforschung hat, lässt sich noch gar nicht absehen. Die Forschung steht erst am Anfang. Aber eines ist ganz gewiss: Da wird kein Stein auf dem anderen bleiben… 240 FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de