Das komplette FOCUS-Jahrbuch 2004 kostenlos downloaden

Transcription

Das komplette FOCUS-Jahrbuch 2004 kostenlos downloaden
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Wolfgang J. Koschnick (Hrsg.)
FOCUS-Jahrbuch 2004
Beiträge zu
Werbe- und Mediaplanung
Markt-, Kommunikations- und
Mediaforschung
FOCUS Magazin Verlag GmbH, München 2004
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Bibliografische Information Der Deutschen Bibliothek
Die Deutsche Bibliothek verzeichnet diese Publikation in
der Deutschen Nationalbibliografie; detaillierte bibliografische Daten
sind im Internet über http://dnb.ddb.de abrufbar.
Koschnick, Wolfgang J. (Hrsg.):
FOCUS-Jahrbuch 2004
Beiträge zu
Werbe- und Mediaplanung
Markt-, Kommunikations- und
Mediaforschung
München: FOCUS Magazin Verlag, 2004
ISBN: 3-9808574-1-7
© 2004 FOCUS Magazin Verlag GmbH, München
Satz: MEDIASUN Infotainment GmbH, Herrsching
Druck: ColorDruckLeimen GmbH, Leimen
ISBN: 3-9808574-1-7
Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt.
Jede Verwertung ohne Zustimmung des Verlags ist unzulässig und strafbar.
Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen
und die Einspeicherung und Verarbeitung in elektronischen Systemen.
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Vorwort
Ende letzten Jahres starteten wir mit unseren FOCUS-Buchreihen. Als erstes Werk in der Lexikareihe
erschien das FOCUS Medialexikon von Wolfgang J. Koschnick in drei Bänden mit rund 7000 Stichwörtern von der Abnehmeranalyse über K1 und LpA bis hin zur Zellengewichtung auf 3124 Seiten. Ich
freue mich, dass uns mit diesem FOCUS-Jahrbuch 2004 der Start einer neuen Buchreihe mit Fachbeiträgen von namhaften Autoren aus Markt-, Media- und Sozialforschung gelungen ist.
Diese Essay-Reihe schließt somit nahtlos an andere editorische Werke des FOCUS Magazin Verlags an.
Jahr für Jahr werden hier in Essay-Form Fachautoren und Wissenschaftler die neuesten Trends darstellen.
Was genau ist ein Essay? Die Frage, welche Merkmale einen Essay auszeichnen, ist umstritten.
Offensichtlich besteht lediglich Einigkeit, dass Essays zwischen wissenschaftlicher Abhandlung und
journalistischem Feuilleton angesiedelt werden müssen. Anders als in den rein wissenschaftlichen
Nachschlagewerken werden im FOCUS-Jahrbuch 2004 daher verschiedene Meinungen dargestellt, die
zuweilen auch polarisieren und somit zu wichtigen und oft spannenden Diskussionen Anregung bieten.
Bereits seit 2001 stehen jedermann jederzeit solche Beiträge aus Markt-, Media- und Sozialforschung
auf der Online-B2B-Plattform des FOCUS Magazin Verlags (www.medialine.de) zur Verfügung. Wir
freuen uns dem Leser, jetzt auch aktuelle, von Wolfgang J. Koschnick gesammelte Essays in gedruckter
Form zur Verfügung zu stellen.
Viel Spaß beim Lesen dieses interessanten, aufklärenden, ja sogar unterhaltsamen Sammelwerks von
Beiträgen verschiedenster Experten. Ich bin mir sicher, Sie werden hier einige gute Anregungen für
Media- und Forschungsdiskussionen finden.
Frank-Michael Müller,
Verlagsleiter FOCUS Magazin Verlag GmbH
München, im Mai 2004
V
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Dieses Jahrbuch ist die erste Ausgabe einer langen Reihe, die sich nahtlos in andere editorische
Projekte des FOCUS Magazin Verlags fügt. In dieser Buchreihe stellen namhafte Fachautoren und
Wissenschaftler Jahr für Jahr die neuesten Trends dar.
Das FOCUS-Jahrbuch 2004. Beiträge zu Werbe- und Mediaplanung, Markt-, Kommunikationsund Mediaforschung ergänzt und vertieft laufend die längerfristig angelegten Datenbanken und
Nachschlagewerke durch aktuelle Darstellungen von neueren Entwicklungen.
Seit 2001 finden diese Nachschlagewerke auf der MediaLine, der B2B-Plattform des FOCUS Magazin
Verlags im Internet, eine Ergänzung durch Veröffentlichungen namhafter Autoren aus dem weiten Feld
von Markt-, Media- und Sozialforschung. Diese Fachaufsätze stehen jedermann jederzeit frei zur
Verfügung und können mithilfe einer Volltextsuche nach beliebigen Themen und Erkenntnissen durchsucht werden (www.medialine.de/fachbeitraege).
Auf der MediaLine entsteht Schritt für Schritt eine umfassende Datenbank für die internationale
Mediawirtschaft aus den Bereichen Werbe- und Mediaplanung, Markt-, Media-, Kommunikations- und
Konsumforschung. Ende 2003 erschien das FOCUS-Lexikon Werbeplanung – Mediaplanung –
Marktforschung – Kommunikationsforschung – Mediaforschung von Wolfgang J. Koschnick: 3 Bände,
rund 7000 Stichwörter vom Sleeper-Effekt über K1 und LpA bis hin zur Zielgruppenauflage auf 3124 Seiten,
die sowohl online (www.medialine.de/medialexikon) wie auch als Buch zur Verfügung stehen. Dieses
Grundwerk wird ergänzt durch zwei weitere Lexika für Österreich und die Schweiz: FOCUS- Lexikon
Österreich Werbeplanung – Mediaplanung – Marktforschung – Kommunikationsforschung –
Mediaforschung und das FOCUS-Lexikon Schweiz Werbeplanung – Mediaplanung – Marktforschung –
Kommunikationsforschung – Mediaforschung.
Beide Bücher mit einem Umfang von jeweils noch einmal 600 bis 700 Druckseiten erscheinen im
Sommer 2004 – wiederum nach demselben Grundkonzept sowohl als Buch wie als frei nutzbare OnlineAusgabe. Autor ist auch in diesen Fällen der Allensbacher Fachjournalist Wolfgang J. Koschnick, dem
jeweils ein Schweizer und ein österreichischer Co-Autor und Lektor zur Seite steht.
Die Online-Ausgabe des deutschen Medialexikons wird permanent in engem Kontakt mit den Nutzern
aktualisiert, korrigiert, erweitert und optimiert. Jeder Nutzer kann dem Autor (Koschnick@t-online.de)
Verbesserungen, Ergänzungen und Neueinträge vorschlagen. Sie werden alle unmittelbar nach inhaltlicher
Überprüfung eingearbeitet. Gleichzeitig werden im monatlichen Rhythmus jeweils rund 100 Seiten des
Buchs aktualisiert. Damit entsteht ein groß angelegtes interaktives wissenschaftliches Nachschlagewerk,
das möglichst keine Fragen offen lassen soll.
In Vorbereitung ist die FOCUS-Datenbank für Mediaforschung und Mediaplanung. In ihr werden –
für jeden frei zugänglich – im Prinzip alle relevanten, weltweit erschienenen Studien aus Media-, Werbeund Marktforschung – wenn möglich – im Originaltext stehen. Die Nutzung wird sowohl im Volltext wie
über Suchroutinen möglich sein. Dieser Datenfundus dürfte dann die wohl weltweit größte Sammlung
von Markt- und Mediaforschungsstudien sein. Sie umfasst mehrere tausend Bände mit einer
Themenbandbreite, die sowohl die klassische Markt-, Werbe- und Mediaforschung berücksichtigt als
auch etwas entlegenere Bereiche wie Plakatforschung, „ambient media“ oder gar „Inflight Advertising
und Sponsoring“.
Wer also beispielsweise immer noch wissen will, ob Anzeigen rechts oben auf der Seite besser genutzt
werden als Anzeigen links unten auf der Seite, kann nicht nur die aktuellen Antworten aus den neuesten
Studien zu diesem unerschöpflichen Thema finden, er kann auch feststellen, dass die erste Untersuchung
dieser planerischen Schicksalsfrage bereits im Jahre 1897 durchgeführt wurde und schon damals keine
so sehr viel schlechteren Ergebnisse zutage förderte als all die vielen Studien, die dann, beginnend in
den 1920er-Jahren, im Abstand von meist nur einem Jahr immer wieder derselben Frage nachgingen.
VI
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Aber es ließe sich mithilfe dieser Datenbank natürlich auch jede beliebige andere Frage, die in der
Mediapraxis eine Rolle spielt, auf der Basis der verfügbaren Forschungserkenntnisse beantworten. Ich
nenne nur ganz wenige: Was weiß man über die Wirkung von Humor in der Werbung? Welche Rolle
spielt „Gefallen“, d.h. was ist bei verschiedenen Studien herausgekommen, die untersucht haben, ob es
für die Rezipienten wichtig ist, wenn ihnen ein Werbespot oder ein anderes Werbemittel gefällt? Welche
Wirkung haben Furcht- oder gar Angstappelle (etwa bei Warnungen vor gesundheitsschädlichen
Wirkungen von Genussmitteln)? Wie wirkt Bandenwerbung, die im Fernsehen übertragen wird? Wie
wichtig ist hoher Werbedruck? Was ist „Recency Planning“? etc. etc.
Ein weiterer großer Baustein ist ein großes Nachschlagewerk für Marketing und Marketingdurchführung. In einem ersten Schritt wurde bereits im Jahr 2002 ein zweisprachiges englischdeutsches/deutsch-englisches Enzyklopädisches Wörterbuch für Marketing ins Netz gestellt
(www.medialine.de/marketing-woerterbuch): Gut 3500 Druckseiten mit über 40000 Stichwörtern. Auch
dies übrigens als interaktive Veranstaltung. Das Buch zur Online-Ausgabe erscheint im Herbst 2004.
2005 kommt als weiteres groß angelegtes Nachschlagewerk das FOCUS-Lexikon Marketing heraus –
wiederum sowohl als Buch wie als Online-Ausgabe. Umfang gut 2500 bis 3000 Druckseiten und über
6000 Stichworteintragungen. Anfang 2006 erscheint das FOCUS-Lexikon für Markt- und Konsumforschung mit rund 1500 bis 2000 Druckseiten.
Wolfgang J. Koschnick
Allensbach am Bodensee, im Mai 2004
VII
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
FOCUS-Jahrbuch 2004
Beiträge zu
Werbe- und Mediaplanung
Markt-, Kommunikations- und
Mediaforschung
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Inhaltsverzeichnis
Seite
TALKING PAPER
The Scientific Principles Of Media Planning are Few, but Important.
By Erwin Ephron . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
REDE-PAPIER
Es gibt nur wenige wissenschaftliche Prinzipien der Mediaplanung, aber die sind wichtig.
Von Erwin Ephron . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Der lange Abschied vom „Königsweg der empirischen Sozialforschung“
Von Wolfgang J. Koschnick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Radiocontrol
Die Befunde zeigen, dass die Zukunft dem Audiometer gehört
Von Matthias Steinmann und Manuel Dähler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Warum die Radioforschung in Österreich ihr Befragungsmodell präferiert
Von Petra Golja, Doris Ragetté und Sigrid Svitek . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
‘How to settle the message’
Medien- und Werbewirkung jenseits von Reichweiten und GRPs
Von Michael Pusler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
Aufmerksamkeit
Forschung und Anwendung
Von Christian Scheier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
Dem Online-Nutzer auf der Spur
Von Dieter Reigber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Reichweitenermittlung für Online- und andere Medien
Von Jochen Hansen und Johannes Schneller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Ist die Ökonometrie am Ende?
Von Wolfgang J. Koschnick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
Wie Auflagenzahlen und Reichweiten zusammenhängen
Von Karl Steurer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
Zum besseren Verständnis:
Forschung über den Zusammenhang von Auflage und Reichweite . . . . . . . . . . . . . . . . . . . . . . . 225
Revolution im Gedächtnis
Von Wolfgang J. Koschnick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
XI
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Bookmark your success! In FOCUS MediaLine finden
Sie Ihre Favoriten für erfolgreiche Marketing- und
Mediastrategien.
FOCUS MediaLine – Ihr persönlicher Informationsmanager unter www.medialine.de
Weitere Infos Tel.: 089 / 92 50 - 24 39
Gut , wenn man die F a k t e n kennt .
www.medialine.de
TALKING PAPER
The Scientific Principles Of Media Planning are
Few, but Important.
By Erwin Ephron
No, Talking Paper is not a new kind of paper that talks, although that will probably be invented soon1. It’s a short-text briefing, like those prepared for the President to keep him out of trouble when he’s visiting Burkina Faso.
This is a Talking Paper on the Scientific Principles of Media Planning. It’s brief
because there aren’t many.
Agreed, scientific principles are no match for the mysteries of life. But media
planners still need to be pupils of Science, not its refugees, and at least make the
effort to be familiar with what appears to work. And if “principles” seem to be
an over claim, let’s think of them as “main beliefs”.
There are six principles in media worth studying. Targeting, Recency, Satiation,
Acceleration, Scale and Synergy. It makes for a hopeless acronym.
1. TARGETING
Henry Kissinger once said the “organizing principle” of Western geo-political
strategy was the threat of Communist aggression. I admire the phrase, so I’ve
decided to steal it. The organizing principle of media is “the consumer target”,
which we need to develop further in our planning.
Targeting’s value is consistently underestimated, because we fix on demographic, user and life style targets, which don’t work well for television, where most
of the money is still spent.
When we expand our target to include those more likely to buy for other reasons, it now includes “geography” and “receptivity” targeting. Both are powerful ways to segment a market.
1
The MIT Media Lab has already invented reusable paper, most of which is still stacked in their
closet waiting to be used, again and again.
3
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Geography and Receptivity
Geo-targeting is a fancy name for spot planning. The US is divided into 210 TV
markets served by different media. All brands have good and bad TV markets,
which, unlike demo-targets, sell for much the same cost-per-thousand. It is the
ability to buy better markets at the average price that makes geographic targeting
work so well.
Receptivity targeting exploits the psychological dimension of response. When
I wanted something as a child, my mother would advise “ask your father after
dinner.” That is receptivity targeting. What a person is feeling, doing or thinking
at the time of communication can increase the probability of a response. A few
other mealtime examples:
• A fast-food commercial, before dinner, when we’re hungry and a Pizza is
only a phone call away.
• A “stop smoking” spot after dinner, when we’ve lit-up, although we say
we’ve quit.
• A Weight Watchers commercial Monday, after we’ve over-indulged all weekend.
When receptivity requires precise targeting-in-time, it’s limited to TV and Radio.
But in Print, context can increase receptivity. Vogue attracts the fashion-conscious reader, while at the same time, an ad in Vogue says that the product shown
is fashion.
When media people champion the benefits of “environment” in TV that usually
means content, production values and even rating level. I would argue that what
is going on inside the consumer’s head when the commercial runs is the most
important environment of all.
Near-to-Purchase
“Near-to-purchase” is more generalized targeting-in-time. It has leverage
because purchases are usually concentrated, and the last competing message
received before the purchase is most likely to be remembered.
Near-to-purchase targeting works with most media, but especially outdoor, which
has continuing presence, something we will discuss later. Seasonality is a special-case example of near-to-purchase targeting.
4
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
A few examples:
• We vote on election day.
• Supermarket sales peak Thursday, Friday and Saturday.
• We go to movies and shop cars on weekends.
• We buy insect repellent in the summer.
2. RECENCY
Recency is receptivity targeting expanded into a model of advertising effect. The
ideas behind recency are simple.
• Advertising works best with consumers who are in the market for the product being advertised (I need a car).
• Advertising usually doesn’t put them in the market for the product. Life
does that (My car lease is up).
• Advertising gets them to buy a brand (Good, Toyota is having a sale).
This construction of how ads work has a dramatic effect on television planning,
because only a small percent of the target group are ready to buy the product
at any given time. This forces the planner to switch from intermittent bursts of
heavy advertising (flighting), to more continuous advertising at moderate weight.
Said simply, more weeks of advertising will let the campaign reach more people
who are in the market at the time.
Described another way, Recency is a “low-hanging fruit” strategy.
Low-Hanging Fruit
In any selling situation, there are hard and easy sales. A smart brand goes after
the easy ones first. Recency is the best plan for doing that.
When a person is ready to buy a product (the cereal box is empty), life has
already done the hard work. That consumer needs cereal. If you are there with a
strong message to remind them of your brand (Kellogg’s) before they make the
purchase, you will get more than your fair share of the business.
The planning problem is you can’t target consumers who are ready-to-purchase
directly, because you don’t know who they are. Except for purchase timing, they
are the typical prospect. So instead, you have to reach as many of them as pos5
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
sible, over as many weeks as the budget will allow, and let probability do the
targeting for you.
Recency avoids concentrating messages in bursts of advertising, because that
wastes money building frequency with consumers who are not in the market at
the time. Those frequency dollars are better spent to reach them in other weeks
when they may be ready to buy.
Recency is not simply reach planning. It combines reach with continuity. This
transforms frequency into something much more valuable in advertising – continuing brand presence 2.
The idea of “presence” helps further explain the reach-frequency issue.
Presence
Most advertising doesn’t work through repetition. It works by being there at
the right time3. Successful scheduling reminds more people who are ready to
purchase the product; about a brand they already know.
This suggests brands should plan for the highest 52-week total of weekly reaches
the budget can afford, because different people are in the market for a product
during different weeks, but most people shop each week4.
Using the highest “sum of weekly reaches” as a goal forces schedules to use
moderate GRP weight and run more weeks of advertising5. As we shall see, this
increase in advertising continuity also improves advertising Return On Investment (ROI).
For the four remaining media planning principles, Satiation, Acceleration, Scale,
and Synergy, we move to a new area of discovery through Return On Investment
2
Frequency is part of the old teaching/learning model. Sellers like the idea of advertising teaching
people about products because that seems to deserve a higher CPM.
3
An analogy. Which is more effective, telling a child “Wash your hands before eating” three times in
the morning, or reminding them once before each meal?
4
The Recency rule on planning interval is “shorter is better”. The actual length is a function of
budget. McDonald’s should plan by the day.
5
There is a complication in the need for a reach threshold. A minimum target reach of 20 to 35 seems
necessary for the advertising effects to be read in the market. That translates to a weekly weight of
50 to 70 TRPs.
6
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
(ROI) analysis. It is a form of econometric modeling which seeks to identify
cause-and-effect in complex systems like advertising.
ROI Analysis
ROI analysis arrived behind schedule. The most damaging cliché in advertising,
“I know half my dollars are wasted, but I don’t know which half”, had never been
answered. The question was perfect for ROI. But the new approach didn’t seem
to help.
The celebrated Adworks 2 study (1999) found that the TV advertising of the top
10 per cent of consumer packaged goods (CPG) brands paid back only 32 cents
on the dollar 6.
Worse yet, most marketers consider CPG brands to be expert advertisers and
television to be the most cost effective form of advertising.
But it turns out CPG brands were a bad choice.
The Role of CPG
Packaged goods have dominated advertising from the start because their managements believe in the science of marketing and their detailed sales data are ideal
for brand tracking. But there are also good reasons why they are the wrong place
to search for advertising effects.
Today they are a minor part of advertising (only 16 cents of each national ad
dollar). They show little growth. They operate in mature consumer markets
characterized by known brands and intense competition. There is little product
differentiation. They are small in dollar volume. And most of their advertising is
concentrated in a single medium, television.
There is much greater opportunity for advertising to sell in growing markets
where news and information are important to the sale, for example Rx drugs,
Electronics, Retail, Movies, and in markets where larger brands predominate,
like telecommunications, finance, computers, and automobiles.
6
My approximate calculation from their numbers.
7
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Large Brands in Growing Markets
Fortunately, Marketing Management Analytics (MMA), the leading US marketing-mix modeling firm, now has a database that includes large brands in growing markets.
The measure MMA uses for ROI analysis is the modeled one-year contribution
of advertising to total brand sales, minus the costs of goods, divided by the cost
of the advertising. It is the equivalent of advertising-delivered “profit before
taxes”. They call it “Payback”.
Payback is the philosopher’s stone of media measurement. It looks at dollars in
and dollars out to leapfrog the troubling lack of comparability in media measurements. It attempts to answer questions like:
What does a dollar spent in magazines payback compared to a dollar spent in
TV? Does a mix of media payback more? What is the best mix?
Here’s what ROI modeling tells us about how media work. We’ll start with
Satiation.
Source: Marketing Management Analytics
3. SATIATION
Satiation is why that first beer always tastes the best. In media, it is diminishing
marginal returns to concentration.
Satiation shows up in two ways. There is decreasing marginal response to frequency (the earlier exposure of a group of exposures in any medium produces
7
This depends on the shape and level of the media response curves.
8
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
the greater response). And there is decreasing marginal response to concentration
(moving dollars to a different medium can often improve response)7.
The first pattern supports reach, not frequency, the second argues for media-mix.
But it’s not that simple.
Since the rate of response to a medium changes with dollars spent, definitive
answers on how to mix media are hard to come by. It depends on the plan budget,
the media used and the allocation of dollars among media.
MMA data (above) show that at current allocations, other media now usually
payback more than television does, but this needs to be interpreted with caution.
Most print brands also use TV, so some of the response may reflect TV/Print
synergies.
Satiation also works within a medium. For example, dispersion across TV
dayparts usually produces a higher payback than concentration in a single
daypart will.
4. SCALE
ROI modeling data show increasing returns to brand size. There are economies
of scale accruing to large brands, which appear to make advertising (and other
marketing programs) more cost-effective.
Payback by Brand Size (Tertiles)
Avg. Brand $
$
6,515,545
$
408,280,000
$ 5,508,324,651
Payback
($ 0.36)
($ 0.85)
($ 1.48)
Source: Marketing Management Analytics
The table above is based upon 20 non-CPG brands arrayed in terciles by size.
It shows average brand sales and payback to advertising. The pattern is typical.
Payback correlates directly with brand size.
The largest third of the brands show a positive payback ($1.48). The brand detail
(not shown) reports that advertising pays back in the short term for each of the
four brands in the database with more than $ 1 billion in sales.
9
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
5. ACCELERATION
Acceleration is increasing returns to continuity. There is a higher marginal
response to each successive week of advertising.
This has two sources. The first is repeat purchase from those influenced to buy
the brand by earlier advertising. Then there is the systemic effect of prior weeks
of advertising, which show up as increased brand awareness and saliency. This
greater familiarity with the brand makes it easier for advertising to make the next
sale.
Longer-term, increasing returns are amplified by the growing size of the brand,
producing economies of scale, which make all marketing activities more productive.
6. SYNERGY
Synergy is increasing returns to media convergence. It is the idea that concurrent
brand messages to the same consumer from different media sources will produce
a total effect greater than the sum of the effects of the individual exposures. This
is the so-called “Media Multiplier”.8
It is the opposite of our TV-centric idea that media-mix makes advertising work
better by simply extending reach, and balancing frequency9. Synergy says that
media duplication is helpful.
It’s appropriate to end Synergy on a guarded note.
Synergy requires media to overlap, which can reduce the positive effect of continuity since overlapped schedules may result in fewer weeks of advertising.
And attempting to cover the same consumer with multiple media will increase
schedule frequency, which conflicts with recency. So, synergy is not a clean win.
It may diminish other drivers of ROI.
A final difficulty in measuring the effects of advertising is the measurement
period. This deserves discussion.
8
Alan Smith is the champion of Media Synergy. He is brilliant and tireless on the subject.
9
The current generation of media-mix optimizers does not consider media synergy. Impact-value
weighted reach is the goal.
10
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Short-Term vs. Longer-Term
ROI modeling uses one year. These short-term effects are relatively simple to
model. Advertising runs and sales respond or they don’t.
But we know that advertising also has longer-term effects. Modeling these is
dicier, because it is more difficult to ascribe an effect to a cause (like sales to
advertising) with confidence when they are separated in time. Too many other
things have happened.10
This uncertainty leads to metaphysical constructions like, “the longer-term
effects of advertising include all of those things that would not have occurred had
the advertising not run.” Metaphysical, because apart from repeat purchase, it
is impossible to determine exactly what those things are.
Or it results in the equally fuzzy measure, growth in Brand Equity, which is easy
to say, tough to define and even more difficult to ascribe directly to advertising.
Long-Term Effects
A clearer way of defining and modeling the longer-term effects of advertising is
to think of them as composed of two quite different things.
The first is behavioral. It is the increase in baseline sales produced by repeat
purchase and depth of repeat, which follows from the initial advertising effect.
This can be measured and modeled.
The second is cognitive. It is the increase in marginal response to advertising
continuity, which captures the way advertising builds on itself by heightening
brand awareness and saliency. This is what makes advertising increasingly costeffective when continued over time. This also can be measured and modeled.
Targeting, Recency, Satiation, Acceleration, Scale and Synergy. These are the six
principles of media planning and this is a talking paper.
If you’re ever invited to Burkina Faso, Mr. President, now you can talk media.
10
Carry-over modeling devices like Adstock try to cheat the delayed causality problem simply by
moving the advertising closer to the sale.
11
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Erwin Ephron is the acknowledged father of “recency planning”. His fresh ideas
about media have changed the way advertising is managed throughout the world.
His words on subjects as heated as the TV upfront (“It’s Afghanistan. Pull the trigger
now, count the bodies later. How else can you spend $9.3 billion in a week over the
phone?”), Media Auditing (“Monitoring is a better word. Buying is a process, not an
event”), Strategic Planning (“It’s to agency new business as Viagra is to sex”) have
made him an interesting voice at a confusing time.
Erwin’s recent honors include: Year 1999 election to the Market Research Council
Hall of Fame. Year 2000 winner (with Stu Gray) of the Advertising Research
Foundation’s Lysaker Award, which provides $60,000 to fund innovative research.
Year 2001 Winner (with Melissa Heath) of the WPP Atticus Award for best published
paper on media. Year 2003, honored as One of Five Most Influential Media People of
the Last 25 years by “American Demographics Magazine”.
After a long agency career; BBDO, Carl Ally, and his own Ephron, Raboy & Tsao,
Erwin founded Ephron, Papazian & Ephron, Inc., now the pre-eminent media consultancy with clients in the US and across the world.
12
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
REDE-PAPIER
Es gibt nur wenige wissenschaftliche Prinzipien der
Mediaplanung, aber die sind wichtig.
Von Erwin Ephron
Nein, nein. Ein „Rede-Papier“ ist kein sprechendes Papier, obwohl auch das
wohl bald erfunden sein wird.1 Es handelt sich vielmehr um eine Art kurz gefassten Briefings, so in der Art der Zusammenfassungen, wie sie für den amerikanischen Präsidenten verfasst werden, um zu vermeiden, dass er Unsinn redet, wenn
er auf Staatsbesuch in Burkina Faso ist.
Dies ist ein „Rede-Papier“ über die wissenschaftlichen Prinzipien der Mediaplanung. Und es ist sehr kurz, weil es nicht sehr viele davon gibt.
Zugegeben, wissenschaftliche Prinzipien sind sowieso nicht geeignet, die
Geheimnisse des Lebens zu erklären. Aber Mediaplaner müssen dennoch Scholaren der Wissenschaft sein. Auf jeden Fall sollten sie nicht auf der Flucht vor
ihr sein, und sie sollten wenigstens den Versuch machen, sich mit etwas vertraut
zu machen, was funktioniert. Und wenn der Begriff „Prinzipien“ etwas zu hoch
gegriffen erscheint, so sollten wir von „grundlegenden Überzeugungen“ sprechen.
Es gibt in der Mediaplanung sechs Prinzipien, die zu untersuchen sich lohnt:
Zielgruppengenauigkeit (Targeting), zeitliche Nähe (Recency), Sättigung (Satiation), Volumen (Scale), Beschleunigung (Acceleration) und Synergie (Synergy).
Man könnte daraus ein Zungenbrecher-Akronym machen.
1. Zielgruppengenauigkeit
Henry Kissinger hat einmal gesagt, das „Organisationsprinzip“ der geopolitischen Strategie des Westens sei die drohende kommunistische Aggression. Ich
bewundere diese Formulierung und habe daher beschlossen, sie zu klauen. Das
Organisationsprinzip der Mediaplanung ist die „Zielgruppe der Konsumenten“,
die wir in unserer Planung weiter entwickeln müssen.
1
Das Media Lab des Massachusetts Institute of Technology (MIT) hat bereits ein wieder verwendbares Papier entwickelt, das allerdings noch in deren Geheimschränken ruht und darauf wartet, wieder
und wieder genutzt zu werden.
13
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Der Wert der Zielgruppengenauigkeit wird durchgehend unterschätzt, weil wir
auf demografisch, durch Nutzungs- oder Lebensstil, definierte Zielgruppen fixiert
sind, die speziell bei der Fernsehwerbung, für die noch immer das meiste Geld
ausgegeben wird, nicht gut funktionieren.
Wenn man die Zielgruppengenauigkeit erhöht, indem man auch diejenigen einbezieht, die aus weiteren Gründen mit höherer Wahrscheinlichkeit kaufen, dann
muss man „Geografie“ und „Empfänglichkeit“ (Receptivity) in die Zielgruppenstrategie einbeziehen. Beides sind wirkungsstarke Instrumente zur Segmentierung eines Marktes.
Geografie und Empfänglichkeit
Geografische Zielgruppengenauigkeit (Geo-Targeting) ist ein fashionabler
Name für zielgruppengenaue Planung. Die USA bestehen aus insgesamt 210
Fernsehmärkten, die von unterschiedlichen Medien bedient werden. Alle Markenartikel haben teils gute, teils schlechte Fernsehmärkte, die jedoch anders als
demografisch definierte Zielgruppen für im Wesentlichen denselben Tausenderpreis verkauft werden. Es ist die Fähigkeit, bessere Märkte zu den durchschnittlichen Preisen einzukaufen, die geografische Zielgruppenplanung zu einem so
wertvollen Instrument macht.
Empfänglichkeitsplanung (Receptivity Targeting) macht sich die psychologische
Dimension von Reaktionen zunutze. Wenn ich früher als Kind etwas wollte,
sagte meine Mutter stets: „Frage deinen Vater nach dem Essen.“ Dies ist der Kern
von Empfänglichkeitsplanung. Was ein Mensch im Augenblick der Kommunikation fühlt, tut oder denkt, kann die Wahrscheinlichkeit einer bestimmten Reaktion erhöhen. Noch ein paar Beispiele im Zusammenhang mit dem Essen:
• Wenn wir einen Fast-Food-Werbespot kurz vor dem Essen sehen, wenn wir
sowieso schon Hunger haben, dann rufen wir schneller beim Pizza-Service
an.
• Ein „Anti-Raucher“-Spot unmittelbar nach dem Essen, wenn wir die Zigarette schon angesteckt haben, obwohl wir uns doch vorgenommen hatten, mit
dem Rauchen aufzuhören.
• Ein Werbespot der Weight-Watcher am Montag, nachdem wir das ganze
Wochenende viel zu viel gegessen haben.
Wenn die Empfänglichkeitsplanung eine zeitgenaue Planung erfordert, bleibt ihre
Wirksamkeit auf Fernsehen und Radio beschränkt. Aber in den Printmedien kann
14
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
der thematische Zusammenhang, das redaktionelle Umfeld, die Empfänglichkeit
erhöhen. Die Zeitschrift Vogue zieht modebewusste Leserinnen an, während
zugleich eine Anzeige in Vogue den Eindruck suggeriert, das darin beworbene
Produkt sei modisch.
Wenn Mediaplaner die Vorzüge des „Programmumfelds“ im Fernsehen anpreisen, dann meinen sie damit meistens Inhalt, Produktionswerte und sogar Einschaltquoten. Ich würde dagegen argumentieren: Was im Kopf des Konsumenten
vor sich geht, während der Werbespot läuft, ist das allerwichtigste Umfeld.
Nähe zum Kauf
Die „Nähe zum Kauf“ ist eine allgemeinere Form der zeitgenauen Planung. Sie
ist wirkungsstark, weil Käufe gewöhnlich auf einen bestimmten Zeitpunkt konzentriert sind. Die letzte unter mehreren konkurrierenden Werbebotschaften, die
den Konsumenten kurz vor dem Kauf erreicht, ist diejenige, an die er sich wahrscheinlich am besten erinnert.
Die Zielgruppenplanung nach dem Kriterium der „Nähe zum Kauf“ funktioniert mit den meisten Werbeträgern, besonders gut aber funktioniert sie mit
Außenwerbung – wir werden darauf zurückkommen. Saisonalität ist ein Sonderfall der Zielgruppenplanung nach „Nähe zum Kauf“. Ein paar Beispiele:
• Wir wählen am Wahltag.
• Käufe in Supermärkten finden besonders an Donnerstagen, Freitagen und
Samstagen statt.
• Kinobesuche und Automobilkäufe finden verstärkt an den Wochenenden
statt.
• Wir kaufen Anti-Insekten-Sprays im Sommer.
2. Zeitliche Nähe (Recency)
Das Konzept der „zeitlichen Nähe“ ist die Erweiterung des Konzepts der
Empfänglichkeitsplanung zu einem Modell der Werbewirkung. Die Grundgedanken des „Recency“ sind einfach:
• Werbung wirkt am besten bei Konsumenten, die sich gerade auf dem Markt
für das beworbene Produkt befinden (Ich brauche dringend ein neues Auto).
15
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
• Die Werbung bringt die Konsumenten normalerweise nicht auf den Markt
für das Produkt. Das Leben tut das (Mein Leasing-Vertrag läuft aus).
• Werbung bringt die Konsumenten dazu, sich für eine bestimmte Marke zu
entscheiden (Gut, Toyota verkauft gerade zu besonders günstigen Preisen).
Diese Rekonstruktion des Wirkungsprozesses von Werbung hat dramatische
Auswirkungen auf die Fernsehplanung; denn zu jeder beliebigen Zeit ist immer
nur ein ganz kleiner Prozentsatz der Zielgruppe bereit, das beworbene Produkt
auch zu kaufen. Das zwingt die Mediaplaner, vom „Klotzen“ zum „Kleckern“
überzugehen: An Stelle kurzer Phasen intensiver Werbung und langer Pausen
dazwischen („Flighting“) empfiehlt sich eine kontinuierliche Werbung mit geringem Werbedruck. Einfach ausgedrückt: Je größer die Zahl der Wochen, während
derer eine Kampagne präsent ist, desto größer ist die Zahl der Leute, die während
ihrer Laufzeit auch „auf dem Markt“ sind und das Produkt kaufen wollen.
Mit anderen Worten: „Recency Planning“ ist eine Strategie der tief hängenden
Früchte.
Tief hängende Früchte
In jeder Verkaufssituation gibt es sehr schwere und sehr leichte Verkäufe.
Gescheite Markenartikler kümmern sich zuerst um die leichten Verkäufe.
Wenn ein Mensch bereit ist zu kaufen (Die Haferflocken sind alle), dann hat das
Leben bereits den größeren und anstrengenderen Teil der Arbeit getan. Dieser
Konsument braucht Haferflocken. Wenn in diesem Moment eine Marke mit einer
starken Botschaft da ist und ihn auf sich aufmerksam macht (Kellog‘s), bevor er
seinen Einkauf tätigt, dann hat sie die allerbesten Chancen, ihn zu überzeugen
und ihr Produkt zu verkaufen.
Das Planungsproblem besteht nun allerdings darin, dass man die Konsumenten,
die zum Kauf bereit sein, nicht direkt ins Visier nehmen kann, weil man nicht
weiß, wer sie sind. Außer im Hinblick auf den Kaufzeitpunkt unterscheiden sie
sich in nichts vom durchschnittlichen potenziellen Kunden. Weil das so ist, muss
man so viele von ihnen wie möglich über so viele Wochen, wie der Etat es gestattet, erreichen und dabei der Wahrscheinlichkeit die Zielplanung überlassen.
Zeitliche Nähe („Recency“) vermeidet es bewusst, Werbebotschaften in „Klotz“Phasen zu konzentrieren, weil man so viel Geld darauf verschwendet, Kontaktfrequenzen mit Konsumenten aufzubauen, die zu dieser Zeit sowieso nicht „auf
dem Markt“ sind. Dieses viele schöne Geld verwendet man besser während
anderer Wochen, in denen sie möglicherweise kaufbereit sind.
16
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
„Recency“ ist nicht einfach Nettoreichweiten-Planung. „Recency“ verknüpft
vielmehr Nettoreichweite mit Kontinuität (gleichmäßiger Kontaktverteilung im
Zeitverlauf). Dadurch wandelt sich Frequenz (Kontakthäufigkeit) in etwas, was
für die Werbung sehr viel wertvoller ist – kontinuierliche Markenpräsenz.2
Präsenz
In der Regel wirkt Werbung nicht durch Wiederholung. Sie wirkt dadurch, dass
sie zum richtigen Zeitpunkt präsent ist.3 Erfolgreiche Zeitplanung erinnert mehr
kaufbereite Leute an ein Produkt bzw. an eine Marke, die sie bereits kennen.
Das läuft darauf hinaus, dass Markenartikler möglichst während aller 52 Wochen
im Jahr oder wenigstens an so vielen Wochen werben sollten, wie es ihr Budget
erlaubt; denn in verschiedenen Wochen sind verschiedene Leute „auf dem
Markt“, um ein Produkt zu kaufen. Aber die meisten Leute gehen jede Woche
einkaufen.4
Basiert man die Planung auf dem Ziel der „höchsten Nettoreichweite pro Woche“,
so muss man zwangsläufig einen geringen Werbedruck, eine geringe Zahl von
Gross Rating Points (GRPs) und eine möglichst große Zahl von Wochen planen.5
Wie ich zeigen werde, führt diese Erhöhung der Werbekontinuität zugleich auch
zu einer Erhöhung der Werberentabilität, des werblichen „Return on Investment
(ROI)“.
Um die weiteren vier Mediaplanungs-Prinzipien Sättigung, Beschleunigung,
Volumen und Synergie zu verstehen, befassen wir uns mit einem neuen Entdekkungszusammenhang mit Hilfe der Rentabilitätsanalyse (ROI analysis). Dabei
handelt es sich um eine Form der ökonometrischen Modellbildung, die den Versuch unternimmt, Ursachen und Wirkungen in komplexen Systemen wie der
Werbung zu erkennen.
2
Frequenz ist Teil des klassischen Lernmodells der Werbewirkung. Die Vorstellung, Werbung laufe
darauf hinaus, die Leute etwas über ein Produkt zu lehren, ist bei Anbietern wohl deshalb so beliebt,
weil das höhere Tausenderpreise rechtfertigt.
3
Eine Analogie. Was wirkt besser: Wenn man einem Kind morgens dreimal sagt: „Wasch deine
Hände vor dem Essen“, oder wenn man es einmal, kurz vor dem Essen daran erinnert?
4
Die „Recency“-Regel für die Planung lautet: „Kürzer ist besser“. Die tatsächliche Länge ist eine
Funktion des Budgets. Ein Unternehmen wie McDonald‘s sollte sogar auf der Basis eines Tages
planen.
5
Es gibt eine Komplikation beim Erfordernis einer Nettoreichweiten-Schwelle. Eine angestrebte
Nettoreichweite von 30 bis 35 scheint erforderlich, um Werbeeffekte überhaupt im Markt erkennbar
zu machen. Das läuft wiederum auf ein wöchentliches Gewicht von 50 bis 70 Target Reach Points
(TRPs) hinaus.
17
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Rentabilitätsanalyse
Die Rentabilitätsanalyse kam zu spät. Auf das schädlichste in der Werbung verbreitete Klischee „Ich weiß, dass die Hälfte meines Geldes zum Fenster hinausgeworfen ist. Ich weiß bloß nicht, welche“ ist nie eine Antwort gefunden worden.
Dabei war das eine perfekte Fragestellung für eine Rentabilitätsanalyse. Aber
auch dieser neue Ansatz hat nicht geholfen.
Die viel gerühmte Adworks 2-Studie von 1999 fand heraus, dass die Fernsehwerbung der führenden zehn Marken bei den abgepackten Verbraucherprodukten
gerade mal 32 Cent pro Dollar erwirtschaftete.6
Was noch viel schlimmer ist: Die meisten Marketingleute betrachten die abgepackten Markenartikel als Werbeexperten par excellence und die Fernsehwerbung als die kostengünstigste Form von Werbung.
Aber es hat sich herausgestellt, dass abgepackte Verbraucherprodukte einfach
eine schlechte Wahl waren.
Die Rolle der abgepackten Verbrauchermarken
Die abgepackten Verbraucherprodukte haben die Werbung von Anfang an
beherrscht, weil ihre Unternehmensleitungen an die Marketingwissenschaft glauben und weil ihre detaillierten Verkaufsdaten ideal für die Analyse von Marketing- und Kommunikationswirkungen sind.
Heute machen sie nur noch einen kleinen Teil des Werbevolumens aus (nur 16
Cent für jeden Werbedollar in den USA). Sie zeigen nur geringes Wachstum. Sie
operieren in reifen Märkten, die durch wohl bekannte Marken und einen intensiven Wettbewerb gekennzeichnet sind. Es gibt nur wenig Produktdifferenzierung. Ihr Geldvolumen ist gering. Und die meiste Werbung geht in ein einziges
Medium, das Fernsehen.
Es gibt in wachsenden Märkten, in denen Informationen und Neuigkeiten wichtig für Verkäufe sind, viel bessere Gelegenheiten für Werbung, tatsächliche
Verkäufe auszulösen, zum Beispiel rezeptfreie Medikamente, Elektronik, Einzelhandel, Kino, und in Märkten, in denen größere Marken vorherrschen wie Telekommunikation, Finanzen, Computer und Autos.
6
Meine angemessene Berechnung auf der Basis der Adworks-Zahlen.
18
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Quelle: Marketing Management Analytics
Große Marken in wachsenden Märkten
Glücklicherweise hat Marketing Management Analytics (MMA), die führende
US-Firma für die Entwicklung von Marketing-Mix-Modellen, heutzutage eine
Datenbasis, die auch große Marken in wachsenden Märkten einschließt.
Das Maß, das MMA für die Rentabilitätsanalyse einsetzt, ist der modellierte
Ein-Jahr-Beitrag der Werbung zu allen Markenverkäufen abzüglich der Kosten
für die Güter, geteilt durch die Kosten der Werbung. Es stellt das Äquivalent
der durch Werbung generierten „Gewinne vor Steuern“ dar. Sie haben dafür die
Bezeichnung „Payback“ gewählt.
„Payback“ ist der Stein der Weisen in der Messung des Werbeträgereinsatzes.
„Payback“ untersucht die eingesetzten Gelder und die Gelder, die wieder herauskommen, und überspringt dabei den beunruhigenden Mangel an Vergleichbarkeit
bei der Messung von Werbeträgern. „Payback“ versucht, Fragen wie diese zu
beantworten:
Wie ist der Payback für einen Dollar in Zeitschriften im Vergleich zu einem
Dollar, der für Fernsehwerbung ausgegeben wird? Ist der Payback bei einem
Media-Mix besser? Wie sieht der beste Mix aus?
Und hier sind die Antworten, die man mit Hilfe der Rentabilitätsanalyse über den
Werbeträgereinsatz gewinnt. Wir fangen mit Sättigung an.
19
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
3. Sättigung
Sättigung ist der Grund, weshalb das erste Bier immer am besten schmeckt.
Bei den Medien sind es die nachlassenden Grenzerträge auf den geballten
Werbeträgereinsatz.
Sättigung tritt stets in zwei Formen in Erscheinung. Es gibt eine nachlassende
Grenzreaktion auf Kontakthäufigkeit (der frühere von mehreren Kontakten in
einem beliebigen Werbeträger löst die stärkere Reaktion aus). Und es gibt eine
nachlassende Grenzreaktion auf geballten Werbeträgereinsatz (wenn man die
Gelder in einen anderen Werbeträger investiert, lassen sich die Reaktionen häufig
verbessern).7
Das erste Reaktionsmuster stützt die Vorstellung vom Nutzen der Nettoreichweite, nicht der Kontakthäufigkeit. Das zweite Muster spricht für den MediaMix.
Da die Intensität der Reaktionen auf den Einsatz eines Mediums mit der eingesetzten Geldmenge variiert, lassen sich definitive Angaben darüber, wie genau
man nun die Medien mixen soll, nur schwer geben. Das hängt vom geplanten
Etat, den eingesetzten Werbeträgern und der Verteilung der Gelder auf die einzelnen Werbeträger ab.
Die MMA-Daten zeigen, dass bei den gegenwärtig praktizierten Verteilungsmustern der Payback bei anderen Werbeträgern höher als beim Fernsehen ist. Aber
das sollte mit der gebotenen Vorsicht interpretiert werden. Die meisten Marken,
die in Printmedien werben, setzen auch Fernsehwerbung ein. Daher kann es sein,
dass manche Reaktionen einfach nur die TV-Print-Synergien widerspiegeln.
Sättigung funktioniert auch innerhalb eines Mediums. So generiert zum Beispiel
eine Verteilung von Werbung über die verschiedenen Zeitsegmente im Fernsehen
einen höheren Payback als die Konzentration auf ein einziges Zeitsegment.
4. Volumen
Die Daten der Rentabilitätsanalyse zeigen, dass die Erträge mit wachsender
Größe einer Marke steigen. Für große Marken bestehen nun einmal Kostendegressionseffekte, die ihre Werbung (und ihre anderen Marketing-Programme)
kosteneffektiver machen.
7
Das hängt natürlich vom Verlauf und dem Niveau der Reaktionskurven ab.
20
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Payback nach Markengröße (Tertiles)
durchschnittl. Marke $
Payback
$
6 515 545
($ 0,36)
$
408 280 000
($ 0,85)
$ 5 508 324 651
($ 1,48)
Quelle: Marketing Management Analytics
Die Tabelle oben basiert auf 20 (nicht abgepackten) Marken, die nach der Größe
in Tertile aufgeteilt wurden. Sie zeigt die durchschnittlichen Verkaufszahlen und
den Payback auf die Werbung. Das Muster ist typisch. Payback korreliert direkt
mit der Markengröße. Das größte Drittel der Marken zeigt ein positives Payback
($1,48). Die Einzelheiten zu den Marken (die in der Tabelle nicht erscheinen)
zeigen, dass Werbung kurzfristig für jede der vier Marken in der Datenbasis
mit einem Verkaufsvolumen von mehr als einer Milliarde Dollar einen Payback
erbrachte.
5. Beschleunigung
Beschleunigung („Acceleration“) läuft auf die Erhöhung der Erträge auf
Kontinuität hinaus. Jede folgende Werbewoche erbringt einen höheren Grenzertrag.
Das hat zwei Gründe. Der erste ergibt sich aus den Wiederholungskäufen derjenigen, die durch frühere Werbung zum Kauf der Marke beeinflusst wurden.
Dann gibt es den gewissermaßen systembedingten Effekt vorangegangener Werbewochen, die sich in Form von erhöhter Marken-Awareness und erhöhter
Markenpräsenz äußern. Dieses höhere Maß an Markenbekanntheit macht es der
Werbung leichter, den nächsten Kauf auszulösen.
Längerfristig steigende Erträge werden durch die wachsende Größe der
Marke und das Eintreten von Kostendegression vergrößert, dank derer alle
Marketingaktivitäten produktiver werden.
6. Synergien
Synergien erhöhen die Erträge von Medienkonvergenz. Das ist die Idee,
dass gleich lautende Markenbotschaften, die den Konsumenten aus verschiedenen Medienquellen erreichen, eine Gesamtwirkung erzielen, die größer als
die Summe der einzelnen Kontakte ist. Das ist der viel berufene „Media
Multiplier“.8
21
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Es ist das Gegenstück zu unserer fernsehzentrierten Sicht, dass Media-Mix die
Werbewirkung erhöht, indem er einfach die Nettoreichweiten erhöht und die
Kontakthäufigkeit ausbalanciert.9 Das Konzept der Synergien geht davon aus,
dass Medienüberschneidung nützlich ist.
Es ist jedoch angebracht, beim Thema Synergie zur Vorsicht zu mahnen.
Synergie erfordert Medienüberschneidungen, die wiederum die positiven Wirkungen der Kontinuität mindern können, weil ja Mediapläne mit Überschneidungen
die Zahl der Werbewochen reduzieren können.
Und der Versuch, denselben Konsumenten mit mehreren Medien zu erreichen,
erhöht die Schaltfrequenz, was wiederum mit dem Konzept der zeitlichen
Nähe („Recency“) in Konflikt kommt. Synergie bedeutet also in keinem Fall
einen Reingewinn. Sie kann andere Antriebskräfte des „Return on Investment“
schwächen.
Ein weiteres Problemfeld bei der Messung der Werbewirkung ist die Messperiode. Das muss erörtert werden.
Langfristigkeit vs. Kurzfristigkeit
ROI-Modeling basiert auf einer Periode von einem Jahr. Diese kurzfristigen
Effekte sind relativ leicht zu modellieren. Die Werbung läuft, und die Verkäufe
reagieren darauf oder tun das auch nicht.
Aber wir wissen, dass Werbung auch längerfristige Wirkungen hat. Die zu
modellieren ist sehr viel kniffliger, weil es sehr viel schwieriger ist, die Wirkung
einer Ursache (wie Verkäufe der Werbung) zuzuschreiben, wenn beide zeitlich
weit auseinander liegen. Viel zu viele andere Dinge sind passiert.10
Diese Ungewissheit führt geradezu zwangsläufig zu metaphysischen Konstruktionen wie „die längerfristigen Wirkungen der Werbung schließen alle Dinge ein,
die nicht eingetreten wären, wenn die Werbung nicht erschienen wäre“. Sie sind
metaphysisch, weil es außer bei Wiederholungskäufen unmöglich ist, zu sagen,
was diese „Dinge“ sind.
8
Alan Smith ist der Verfechter der Medien-Synergie.
9
Die gegenwärtig eingesetzte Generation von Media-Mix-Optimierern berücksichtigt WerbeträgerSynergie überhaupt nicht. Nach Impact-Werten gewichtete Nettoreichweite ist bei ihnen das Ziel.
10
Carry-over-Modelle wie Adstock versuchen, sich am Problem der verzögerten Kausalität einfach
dadurch vorbeizumogeln, dass sie die Werbung näher an den Verkauf rücken.
22
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Andere kommen zu ähnlich verschwommenen Maßen wie Wachstum des Markenkapitals (brand equity). Das lässt sich leicht sagen, ist jedoch schwer zu
bestimmen und noch schwerer direkt der Werbung zuzuschreiben.
Langfristige Wirkungen
Ein klarerer Ansatz, die langfristigen Wirkungen von Werbung zu definieren und
zu modellieren, ist es, sich vorzustellen, dass sie aus zwei ganz verschiedenen
Faktoren bestehen.
Der erste hat mit Verhalten zu tun. Es handelt sich um die Erhöhung der
Grundverkäufe, die sich auf Grund von Wiederholungskäufen und der Tiefe
der Wiederholungen ergeben, die wiederum aus der anfänglichen Werbewirkung
resultieren. Dies kann gemessen und im Modell abgebildet werden.
Der zweite ist kognitiver Natur. Es handelt sich um die Grenzreaktion auf
Werbekontinuität, die gewissermaßen die Art und Weise einfängt, wie Werbung
auf sich selbst aufbaut, indem sie Markenbewusstsein und Markenpräsenz
erhöht. Genau dies macht Werbung im Laufe der Zeit in wachsendem Maße
kostengünstig. Auch dies kann gemessen und im Modell abgebildet werden.
Zielgruppengenauigkeit, zeitliche Nähe, Sättigung, Beschleunigung, Volumen
und Synergie: Das sind die sechs Prinzipien der Mediaplanung, und dies ist ein
Rede-Papier.
Falls also der Präsident je nach Burkina Faso eingeladen werden sollte, könnte er
jetzt über Mediaplanung reden…
23
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Erwin Ephron
Der führende US-Mediaplanungsexperte Erwin Ephron ist der geistige Schöpfer des
„Recency Planning“. Seine wegweisenden neuen Ideen darüber, wie die Medien
funktionieren, haben das Werbe- und Kommunikationsmanagement in aller Welt
beeinflusst und verändert.
Ephron hat in den USA zahlreiche Ehrungen erhalten. 1999 wurde er in die „Hall of
Fame“ des Market Research Council gewählt. Im Jahr 2000 war er zusammen mit
Stu Gray Gewinner des Lysaker-Preises der Advertising Research Foundation (ARF).
2001 erhielt er zusammen mit Melissa Heath den WPP Atticus Award für das beste
veröffentlichte Referat über ein Mediathema. Und 2003 zeichnete ihn das American
Democraphics Magazine als einen der fünf einflussreichsten Medienmänner der letzten 25 Jahre aus.
Nach einer langen Laufbahn bei den Werbeagenturen BBDO, Carl Ally und seiner
eigenen Agentur Ephron, Raboy & Tsao gründete er das New Yorker Mediaberatungsunternehmen Ephron, Papazian & Ephron, Inc., das heute zu den weltweit
führenden Beratungsunternehmen der Branche zählt.
24
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Der lange Abschied
vom „Königsweg der empirischen Sozialforschung“
Von Wolfgang J. Koschnick
Diese erste Ausgabe des FOCUS-Jahrbuchs greift vor allem vier aktuelle Tendenzen auf:
(1) Immer stärker tritt international in der Markt- und Mediaforschung die technische Messung an die Stelle von Befragungen und Beobachtungen. Eine Reihe
von Beiträgen zu diesem Thema untersucht die Frage, ob die empirische Sozialforschung ganz allgemein den bisherigen „Königsweg der Sozialforschung“
verlässt. In diesem Zusammenhang steht auch der „Keynote“-Beitrag des
amerikanischen Media-Experten Erwin Ephron über den langen Weg vom
Recency-Planning zum Return-on-Investment-Modeling.
(2) Eine Reihe weiterer Beiträge untersucht neuere Entwicklungen in der
Mediaforschung unter dem Generalthema „Vom Recency-Planning zum
Modeling“.
(3) Ein nächster Themenkomplex beschäftigt sich eingehend mit mehreren
Entwicklungssträngen in der Werbewirkungsforschung, namentlich mit den
Erkenntnissen der Aufmerksamkeitsforschung, der ökonometrischen Werbeforschung und der Hirnforschung zum „impliziten Gedächtnis“.
(4) Ganz von selbst versteht es sich, dass ausführlich fundamentale Fragen
der Online-Werbung, des Online-Marketing und der Online-Forschung in
einem aktuellen Jahrbuch erörtert werden, das zu Beginn des 3. Jahrtausends
erscheint.
Die Revolution in der Mediaforschung hat – wie so viele Revolutionen –
ausgerechnet in der stockkonservativen Schweiz begonnen. In den 1980er-Jahren entstand dort mit Telecontrol die heute weltweit gültige Form der vorwiegend technischen Messung des Fernsehnutzungsverhaltens. 2001 folgte die
Einführung der apparativen Messung der Hörfunknutzung durch Radiocontrol,
und 2004 kam die technische Erhebung der Plakatnutzung. Selbst die Erhebung
der Nutzung von Printmedien ist mit der Entwicklung der Mediawatch nicht
mehr reine Zukunftsmusik. Kein Land der Welt hat den Übergang vom Marktund Mediaforschungsinstrument der Befragung zur technischen Messung so
konsequent und zum großen Teil auch bereits erfolgreich vorangetrieben wie die
Schweiz.
25
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Die Gründe dafür, dass die Markt- und Mediaforscher nach und nach den
„Königsweg der empirischen Sozialforschung“ – die Befragung – verlassen und
stattdessen Verhalten mit Hilfe technischer Messung erforschen, liegen auf der
Hand. Insgeheim traut kein einziger Marktforscher denen so recht über den Weg,
die seine Existenz gewährleisten: den Befragten. Insgeheim sind sie alle der
Überzeugung, dass die Interviewten entweder lügen oder sonstwie die Unwahrheit sagen. Und wenn sie schon das nicht tun, dann erinnern sie sich jedenfalls
falsch…
Wie sollen sie sich auch richtig erinnern, wenn der Marktforscher sie unverhofft
anruft und Viertelstunde für Viertelstunde nachfragt, was sie denn gestern getrieben haben? Und haben sie zwischen 13.45 und 14.00 Uhr auch brav Radio
gehört? Und wie war das von 19.30 bis 19.45 Uhr? Jeder Polizist weiß doch, dass
zwei Zeugen mindestens drei verschiedene Zeitangaben über einen Tathergang
machen. Und die müssen noch nicht einmal einen ganzen Tag rekonstruieren,
sondern ein einziges, auch noch spektakuläres Ereignis wie einen Meuchelmord.
Dabei müssen die Befragten auch noch genau unterscheiden, welchen Sender
sie gehört haben, wo es doch so viele Sender mit ähnlich klingenden Namen
und noch ähnlicher klingenden Programmen gibt. Viele Leute hören ohnehin einfach „Radio“ und machen sich gar keine Gedanken, welcher Sender das ist. Und
selbst dann: Wer weiß noch, welchen Sender er in der einen Viertelstunde zwischen drei und vier Uhr gestern Nachmittag eingeschaltet hatte, als er mit dem
Auto unterwegs war?
Das viele Gefrage soll der Interviewer auch noch in maximal 15 bis 20 Minuten
herunternudeln. Und was bei der Fragerei am Ende herauskommt, soll Investitionsentscheidungen in Radiowerbung stützen? Da lachen ja die Hühner.
Misstrauisch waren Auftraggeber und Forscher schon immer gegenüber den
Tagesablauferhebungen. In Zeitbudgetstudien haben sie „Befunde“ mit eklatant
voneinander abweichenden Ergebnissen zu Tage gefördert. Da gibt es Studien
mit ein- und derselben Forschungsanlage, die feststellen, dass die Leute mal
eineinhalb und mal gleich vier Stunden pro Tag fernsehen. Damit da kein
Missverständnis entsteht: Die Rede ist von hochaktuellen Zeitbudgetstudien, die
von führenden Fernsehsendern erst vor kurzem durchgeführt und veröffentlicht
wurden.
Man kann daraus die nicht gerade verwegene Schlussfolgerung ableiten, dass
Tagesablauferhebungen nicht sonderlich viel taugen. Verwegen sind die Erhebungen. Ihre Ergebnisse sind beliebig. Das Beste, was man über sie sagen kann,
ist: Entweder stimmen sie, oder sie stimmen nicht. Wenn der Hahn kräht auf
26
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
dem Mist, regnet es, oder das Wetter bleibt, wie es ist. Die Wissenschaftstheorie
nennt diesen Quatsch Nonsense-Aussagen. Die Tagesablaufbefragungen der
internationalen Hörerforschung sind nichts als in Zahlen gegossene NonsenseKonvolute.
Letztendlich basieren alle Befragungen auf der Erinnerungsleistung der Befragten. Und die sieht sich immer stärkeren Strapazen ausgesetzt. Die Hörfunknutzung
eines Haushalts erfolgt über viele und technisch unterschiedlich ausgestattete
Radiogeräte, die zudem selbst mobil sind und auch Radiohören an jedem beliebigen Ort erlauben. In fast der Hälfte aller Haushalte existiert ein breites Radioprogrammangebot, das eine vielfältige Programmauswahl erlaubt.
200 Radioprogramme pro Land sind in Westeuropa schon fast normal. Eine Spitzenstellung in Europa nehmen Spanien und Italien ein. National, regional oder
lokal empfangbar, gibt es hier über 2000 Radiosender. In diesen Ländern sind
Hörfunkbefragungen endgültig nur als Karikatur der Mediaforschung zu verstehen. Selbst kleine Länder haben lebhafte Hörfunklandschaften.
Mehr und mehr hat sich die Erkenntnis durchgesetzt, dass die guten alten Befragungen der Probleme in der Hörerforschung nicht mehr Herr werden. Und so
gibt es seit Beginn der neunziger Jahre eine Reihe von Radiometersystemen, mit
deren Hilfe die faktische Hörfunknutzung gemessen und nicht erfragt wird.
Alle Metersysteme messen nicht mehr an den Empfangsgeräten – wie das
Telecontrol beim Fernsehen ja noch immer tut –, sondern bei den empfangenden Personen. Die mühselige Unterscheidung zwischen „Geräteeinschaltquoten“
und „Personen- oder Familieneinschaltquoten“ fällt damit von vornherein weg.
Gemessen wird, was die Personen tatsächlich hören. Ein wesentlicher Fortschritt
vor allem bei der Messung der Out-of-Home-Nutzung von Medien. Sie spielt vor
allem beim Hörfunk eine große Rolle.
Viel Kritik richtet sich gegen das passive Messen der Hörfunknutzung, das
auch das so genannte „Zwangshören“ in Läden oder in Taxis erfasst. Immer
wieder meinen die Kritiker, die Messung durch Radiocontrol sei zu „weich“:
Jedes Gedudele geht in die Messung ein. Beim Fernsehen nach Telecontrol dagegen muss jeder Nutzer seine Personentaste drücken und tut dadurch kund, dass
er bewusst fernsieht, dass er oder sie also nicht nur bei laufendem Fernseher
irgendwo durchs Haus läuft und vom laufenden Programm überhaupt nichts mitbekommt.
Doch der Einwand geht ins Leere. Denn die „Uhr am Arm“ misst ja nur so lange,
wie das Programm auch tatsächlich gehört werden kann. Das jedoch muss sogar
gemessen werden, weil es ja effektiv wahrgenommen wird.
27
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Schließlich ist es nicht die Aufgabe der Metersysteme, zu messen, warum ein
Programm genutzt wird, ob es bewusst, unbewusst oder gar widerwillig gehört
wird. Sie messen einzig die Chance, dass eine Person die vom betreffenden
Sender ausgestrahlten Töne hören konnte. Und da der Hörfunk in wachsendem
Maße zum Hintergrundmedium geworden ist, kommt es auch nicht darauf an zu
differenzieren, ob etwas bloß im Hintergrund abgespielt und nicht bewusst oder
auch nur gezielt angehört wird. Kontakt ist Kontakt.
Gleichwohl bleibt festzuhalten, dass die Personen-Metersysteme beim Hörfunk
nun etwas ganz und gar anderes messen als die Geräte-Metersysteme beim Fernsehen. Das mag zwar einigermaßen sinnvoll erscheinen, sollte aber dennoch
nicht in Vergessenheit geraten. Insofern ist Kontakt eben doch nicht Kontakt.
Im Prinzip gibt es weltweit derzeit drei Entwicklungen: Arbitron (USA) mit dem
Portable People Meter (PPM), Infratest Burke und Keyser-Threde (München)
mit Radiowatch und Telecontrol (Schweiz) mit Radiocontrol.
Alle drei Systeme basieren auf dem Audioabgleich, also dem akustischen Vergleich der vom Radiometer aufgezeichneten Signale und Geräusche mit ausgestrahlten Radiosendungen. Die ordnen sie dann den einzelnen Radiosendern und
-programmen zu.
Das Portable People Meter (PPM) des amerikanischen Forschungskonzerns
Arbitron in Columbia, Maryland, hat ungefähr die Größe eines Pagers. Es ist also
kleiner als ein Handy, während die Endgeräte von Radiocontrol und Radiowatch
die Größe einer Armbanduhr haben. Sowohl Radiocontrol wie Radiowatch erfassen alle Geräusche über Mikrofon und zeichnen sie auf.
Die Mitglieder des Hörerpanels tragen also das Portable People Meter den
ganzen Tag über mit sich herum, während das Gerät per Mikrofon die Signalcodes misst. Sie können es sich am Gürtel anbringen, in der Jackentasche oder im
Portemonnaie tragen.
Am Ende eines jeden Tages stellen die Panelteilnehmer die PPMs auf die BaseStations. Dort werden sie aufgeladen und senden die Tagesdaten an die ArbitronZentrale. Die PPMs selbst sind mit einem Bewegungsmelder ausgestattet, mit
dessen Hilfe Arbitron jederzeit nachprüfen kann, ob die Panelteilnehmer das
Gerät vorschriftsmäßig bei sich tragen.
Das PPM-System besteht also en détail aus vier Komponenten:
(1) dem Codiergerät: Der Studio Grade Encoder for Audience Measurement
(SGE) besteht bei allen Sendern und sorgt dafür, dass ein für die PPM-Geräte
28
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
erkennbarer, für das menschliche Ohr jedoch unhörbarer Identifikationscode
in das laufende Programm integriert wird.
(2) dem People Portable Meter (PPM): Dieses batteriebetriebene tragbare
Gerät tragen alle Panelteilnehmer den ganzen Tag über mit sich herum. Es
identifiziert und registriert die Codes, mit denen die Teilnehmer im Laufe des
Tages Kontakt haben.
(3) der Basis-Station: Auf sie stellen die Panelteilnehmer am Ende jeden
Tages die PPMs, um die Batterien wieder aufzuladen. Die Batterien haben
eine Leistungsdauer von 27 Stunden, und die PPMs können die Daten einer
ganzen Woche speichern.
(4) dem Haushalts-Verbindungsstück („household hub“): Es überträgt die
tagsüber gesammelten Daten über die Telefonleitung an die Arbitron-Zentrale und ermöglicht es der Zentrale umgekehrt, die Signalcodes in den PPMs
zu aktualisieren.
Vorteile technisch gemessener Hörfunknutzung:
• eine von Erinnerungsleistung und Motivation unverzerrte Hörfunknutzung;
• eine genaue und verlässliche Quantifizierung von Nutzungszeiten und
Nutzungsdauer;
• eine zuverlässige Erfassung von An-, Ab- und Umschaltvorgängen;
• eine valide Erfassung des fragmentierten und sich ständig weiter fragmentierenden Hörfunkmarkts;
• zusätzlich auch die Erfassung der Fernsehnutzung.
Um die gehörten Radioprogramme zu identifizieren, wertet das PPM eine
im Audiosignal enthaltene Kennung, einen Signalcode, aus. Der Code muss
also in das Audiosignal eingefügt werden, bevor ein Programm das Studio
verlässt. Voraussetzung für den Einsatz des Arbitron-Systems ist folglich die
überschneidungsfreie Zuordnung eines individuellen Signalcodes für jeden einzelnen Radiosender.
29
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Das System funktioniert also nur, wenn die Signalcodes ohne Überschneidungen
zugeordnet werden können. Wenn Sender und Programme zeitweise noch für
regionale oder lokale Fenster auseinander schalten, was in der europäischen
Praxis weit verbreitet ist, funktioniert es erst einmal nicht. Auch dies müsste
überschneidungsfrei codiert werden.
Ein Problem stellt die Qualität des Signalcodes und dessen Hörbarkeit dar. Er
muss in einem Frequenzbereich ausgestrahlt werden, den auch Lautsprecher
minderer Qualität noch wiedergeben können. Tatsächlich haben sich in den verschiedenen Tests, die seit Beginn des PPM-Einsatzes gefahren wurden, immer
wieder Probleme bei der Ausstrahlung und der korrekten Identifizierung der
Signalcodes ergeben. Hier liegt also offenbar eine der größeren Fehlerquellen
des Systems.
Beim Audioabgleich verwendet Arbitron ein Online-System. Das hat Vorteile,
weil so die Daten bereits zum Zeitpunkt der Nutzung im Metergerät gewonnen
werden und unmittelbar zur Auswertung vorliegen.
Inzwischen testen die beiden US-Forschungskonzerne Arbitron und Nielsen
Media Research sogar den Einsatz des PPM für die Hörfunk- und die Fernsehforschung zugleich. Das PPM wurde übrigens schon 1992 entwickelt und versuchsweise auch eingesetzt. Es wurde auch von vornherein als Instrument von
Fernseh- und Hörfunkforschung zugleich verstanden. Seit 1998 liefen mehrere
groß angelegte Tests mit dem PPM in der kontinuierlichen Hörfunkforschung
in Manchester/England, Wilmington/Delaware und schließlich 2002/03 auch in
Philadelphia sowie in Kanada und Australien.
Der Einsatz des People Portable Meter macht es möglich, die Daten mit Hilfe
einer Panelanlage zu erheben. Bei den Tagesablauferhebungen der klassischen
Hörerforschung war der Einsatz von Panels nicht ratsam. Nur allzu leicht hätten
sich die Teilnehmer auf die Radionutzung konditionieren lassen.
Für europäische Verhältnisse ist das Arbitron-Peoplemeter indes kaum geeignet.
Um brauchbare Daten zu gewinnen, müssen ja alle Radiosender – und zwar
auch diejenigen, die aus dem Ausland einstrahlen – eine Codierung verwenden.
Um das zu ermöglichen, müsste erst eine europäische Wellenkonferenz eine
entsprechende Vereinbarung beschließen. Und ob die für alle europäischen Staaten einen solchen Beschluss fasst, nur weil ein Land ein Radiometersystem
einführen möchte, steht in den Sternen.
Das in der Schweiz seit 2001 eingesetzte Radiocontrol-System verwendet eine
Offline-Lösung. Die gehörten Radioprogramme werden in der RadiocontrolArmbanduhr stichprobenartig digitalisiert und datenreduziert aufgezeichnet. Erst
30
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
in einem weiteren Verarbeitungsschritt zu einem späteren Zeitpunkt werden
durch Vergleich mit den an zentraler Stelle gespeicherten Programminhalten die
eigentlichen Nutzungsdaten ermittelt.
Die Messgeräte sind daher wenig aufwändig ausgestattet, da nur ein Mikrofon,
ein Speicherchip und eine Batterie zur Energieversorgung benötigt werden.
Kernproblem ist der zuverlässige Mustervergleich, der auch bei überlagerten
Störgeräuschen sicher arbeitet. Da Radiocontrol ausschließlich das vom Lautsprecher wiedergegebene Audiosignal verwendet, ist das System unabhängig
von der Entwicklung neuer Übertragungstechniken. Radioprogramme mit gleichen Inhalten, aber unterschiedlicher Senderherkunft können nicht unterschieden
werden. Aber es bietet dafür die Option, die Fernsehnutzung ebenfalls akustisch
zu erfassen.
Die Radiowatch verwendet zur Identifikation des gehörten Programms den
Mustervergleich. Er wird online im tragbaren Messgerät durchgeführt. Dazu
ist in die Radiowatch ein Radiotuner (UKW) eingebaut, der die empfangbaren
Audiosignale direkt abgleicht und die so gewonnenen Nutzungsdaten im Gerät
abspeichert.
Die eigentliche Herausforderung liegt darin, in einem Gerät von der Größe
einer Armbanduhr Empfangs- und Decodiereinrichtungen unterzubringen, die
alle Empfangswege der Radioverbreitung abdecken. Darüber hinaus muss in die
Radiowatch auch eine entsprechende Antennentechnik implementiert werden,
um eine vergleichbare Empfangsqualität wie zu Hause oder im Auto sicherzustellen.
PPM und Radiowatch können permanent aufzeichnen, eine sekundengenaue
Reichweitenmessung ist also möglich. Demgegenüber schneidet Radiocontrol
im Minutentakt jeweils vier Sekunden mit, um die einzusammelnde Datenmenge
gering zu halten. Arbitron ruft jede Nacht online über Docking-Stations die
Daten ab und hält dadurch die Option täglicher Quoten offen.
Bei Radiowatch und Radiocontrol werden die Uhren nach Ablauf der Feldzeit
zur Auswertung eingesammelt. Dementsprechend erlauben die Konzepte der
Datenkomprimierung und -speicherung, die Chiptechnik und die Kapazität der
Batterien bei beiden Systemen eine Tragedauer von mindestens acht Tagen.
Natürlich gibt es gar keinen Zweifel, dass die permanente Messung (PPM und
Radiowatch) gegenüber der punktuellen Messung (Radiocontrol) gerade angesichts der verbreiteten Erratik in der praktischen Hörfunknutzung einen entscheidenden Vorzug an Genauigkeit darstellt. Das macht es nämlich möglich, die
Nutzung auch sehr kurzer Sendeeinheiten akkurat zu erfassen. Man kann sogar
die Hördauer für einzelne Musikstücke messen und beispielsweise herausfinden,
31
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
wie lange die Hörerinnen und Hörer etwa eine ganze Symphonie durchhören
oder ob sie vorher abschalten.
Nachteile von Radiometersystemen:
• Bestimmte Arten der Hörfunknutzung wie Radiohören über Kopfhörer,
Hörfunknutzung in Haushalten mit Kabelanschluss oder Satellitenempfang, und vor allem die Autohörfunknutzung werden gar nicht oder unzureichend erfasst.
• Sie können nicht zwischen unbewusster und bewusster Nutzung unterscheiden. Messen sie also tatsächlich das Radiohören? Oder ist das
Messergebnis eine Mischung aus bewusstem, auch nebenbei erfolgtem
Radiohören und bloß eingeschaltetem Radiogerät?
• Im Push-Button-System der Fernsehforschung müssen die Panelteilnehmer ihre Personentaste drücken, um als Zuschauer identifiziert zu werden.
Ein Radiometer hingegen zeichnet automatisch auf. Was genau misst es
also?
• Statistische Informationen und die Rahmenbedingungen der Hörfunknutzung wie Tagesablauf und Tätigkeiten müssen so oder so weiter
erhoben werden.
• Beim Tragen des Radiometergeräts besteht die Gefahr einer Konditionierung der Befragten auf den Untersuchungsgegenstand „Radiohören“.
Damit wird also ein eher atypisches Nutzungsverhalten gemessen.
• Es fallen deutlich höhere Erhebungs- und Auswertungskosten bei allen
Nutzern von Radiodaten an.
Die Bandbreite der Möglichkeiten ist einfach größer. Die sekundengenaue Erfassung der Nutzung gestattet es auch, genau zu erfassen, welche Personen wie
lange einen konkreten Werbespot oder Kurznachrichten hören. Vielleicht noch
entscheidender: Es bedarf weit weniger Prüf- und Auswertungskonventionen.
Wenn nur vier Sekunden pro Minute gemessen wird, muss man sich ja im
Wege einer Konvention darüber einigen, wie die nicht gemessenen Sekunden der
jeweiligen Minute zu behandeln sind.
Ein Radiometersystem besteht indes nicht nur aus einem Messgerät. Für PPM ist
es auch erforderlich, dass bei jedem Radiosender ein Signaltongeber installiert
32
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
ist. Bei Radiocontrol ergibt sich der Zusatzaufwand vor allem aus den zusätzlich
erforderlichen Sendererfassungsstationen. Um beispielsweise für Spanien einen
Abgleich vornehmen zu können, wäre es erforderlich, für den Erhebungszeitraum parallel alle rund 2000 Radiosender zentral oder dezentral 24 Stunden am
Tag aufzuzeichnen – ein aberwitziger technischer Aufwand.
Nach Ansicht des deutschen Hörfunk- und Fernsehforschers Dieter K. Müller
sind fünf Anforderungen an Radiometersysteme unverzichtbar:
• korrekte Senderidentifikation;
• Erfassung sämtlicher Sender unabhängig von den Übertragungswegen
(UKW, LW, MW, KW und künftig auch ADR und DAB);
•vollständige Erfassung der Hörfunknutzung, unabhängig vom Nutzungsort;
• Messung an der Person und nicht am Empfangsgerät, wobei das Messgerät
ein Format wie zum Beispiel eine Armbanduhr haben sollte, damit es komfortabel getragen werden kann und eine Konditionierung der Testperson auf
den Untersuchungsgegenstand Radiohören weitgehend ausgeschaltet wird;
• Miniaturisierung der Metergeräte bei verträglichen Kosten.
Methodisch gesehen sind zwei Ansätze möglich: ein festes Panel oder ein Adhoc-Studienansatz. Ein festes Panel ist angebracht für die kontinuierliche Erfassung einer überschaubaren Anzahl weitgehend national verbreiteter Programme.
Bei regionalen Medien, wie Radio, muss die Stichprobe einen Umfang haben,
der es erlaubt, für jeden einzelnen Sender die Gesamtzahl seiner Hörer über
den Tag hinweg wie auch die Hörerstrukturen zuverlässig abzubilden. Auch ein
Radiometersystem erlaubt keine geringere Stichprobengröße.
Es ist zu vermuten, dass kurze Hörabschnitte, gelegentlich oder zufällig gehörte
Sender, fremdbestimmte und unbewusste Nutzungsvorgänge per Radiometer
besser gemessen werden als mit konventionellen Erinnerungstechniken. Es ist
jedoch auch zu vermuten, dass häufig nur „Gerät eingeschaltet“ gemessen wird,
aber nicht die willentliche Hörfunknutzung, die die heutigen auf Erinnerung
basierenden Erhebungstechniken reproduzieren.
Im Ergebnis könnten damit möglicherweise die „Einschaltquoten“ in Nebenzeiten und von Minderheitensendern gestärkt werden. Vielleicht haben aber auch
umgekehrt Minderheiten- oder Einschaltprogramme überhaupt keine Chance, in
einem solchen System valide abgebildet zu werden. Im Ergebnis könnten Radiometersysteme damit auch andere Nutzungsniveaus, andere Strukturen und damit
33
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
andere Marktverhältnisse produzieren. Das bedeutet jedoch nicht, dass gemessene Radiodaten auch der Realität näher kommen.
Probleme ergeben sich aus der Struktur der Radiolandschaft. Viele lokale Sender
strahlen ein- und dasselbe Mantelprogramm aus. Das Audiomatching-System
kann in diesem Fall nur die Programminhalte identifizieren, nicht aber den ausstrahlenden Sender. Das gilt auch in den Fällen, in denen Sender ihre Programme
nachts zusammenschalten. Ebenso wenig geben Radiometersysteme Auskunft
über den Nutzungsort, ob also zu Hause oder im Auto gehört wird. Auch über
irgendwelche Nebentätigkeiten neben dem Radiohören und über die Nutzung
konkurrierender Medien geben sie keine Auskunft.
Es entsteht ja auch eine ganze Reihe neuer Fragen, die es vor der technischen
Messung gar nicht gab:
• Was bedeuten ganz kurze „Hörlücken“? Hat der Teilnehmer trotzdem Radio
gehört und nur mal etwas auf die Messuhr gelegt?
• Was bedeutet Radiohören ohne Tragen der Uhr? Hat der Teilnehmer die
Uhr beim Duschen abgelegt und hört dennoch intensiv Radio? Und wenn
er beim Mittagsschlaf oder sonst aus irgendeinem Grund tagsüber die Uhr
einmal ablegt?
• Welchen Sinn und welche Aussagekraft haben bei sekundengenauer Messung noch die „Viertelstunden-Nettoreichweite“ und die „Stunden-Nettoreichweite“?
• Und fundamental: Was bedeutet „Radiohören“ überhaupt? Nach der Messmethode läuft es ja darauf hinaus: Radiohören findet statt, wenn ein festgelegter Geräuschpegel das Gerät am Arm erreicht.
• Unter welchen Bedingungen wirkt Hörfunkwerbung? Wenn sich die Personen bewusst daran erinnern, dass sie einen Spot gehört haben? Wenn sie
sich an Inhalte erinnern? Oder wenn sie sich nicht einmal bewusst daran
erinnern können, etwas angehört zu haben?
Einen Zahn mussten sich die Beobachter und Kritiker der traditionellen
Hörfunkforschung längst ziehen lassen: dass die Chose mit den hübschen kleinen Metergeräten billiger werden könnte als mit Interviewern und Befragten.
Im Gegenteil. In der Schweiz zahlen die einzelnen Sender für Radiocontrol im
Schnitt rund 70 Prozent mehr als vorher. Schätzungen von NFO Infratest gehen
davon aus, dass die Kosten für die Messung mit der Radiowatch gut dreimal so
34
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
hoch liegen wie für die derzeit noch praktizierte Befragung der Radiotranche in
der Media-Analyse (MA) der AG.MA mit jährlich rund 55 000 Interviews.
Die Aussichten für die Einführung eines Metersystems in Deutschland sind indes
schlecht: Die wirtschaftliche Lage ist düster, die Aussichten auf Besserung sind
gering. Wer mag da schon auf ein teureres System umstellen, bei dem die Reichweiten im Tagesverlauf und die Hördauer voraussichtlich um ein Drittel sinken
werden?
Eine auf dem Höchststand der technischen Entwicklung stehende Innovation
stellt das in den Jahren 1999 bis 2003 entwickelte Forschungssystem für die
Außenwerbung in der Schweiz, Swiss Poster Research, dar. Es beruht ebenso
wie Telecontrol für das Fernsehen und Radiocontrol für den Hörfunk auf technischer Messung statt auf Befragung. Im Mittelpunkt steht die Messung der Plakatbeachtung, bei der wiederum die Mobilität der Passanten eine zentrale Rolle
spielt.
Das System misst die Werbewirkung von Plakaten, indem es die
Bevölkerungsmobilität mit Hilfe des Global Positioning System (GPS) analysiert. Dadurch können alle Bewegungen einer Person, die ein GPS-Gerät mit sich
trägt, erfasst werden.
Sämtliche erfassten Wege werden auf numerische Karten übertragen, die ebenfalls Informationen über alle Plakatstellen (Koordinaten, Format, Beachtungsraum usw.) enthalten. So kann genau bestimmt werden, welche und wie viele
Personen sich im Umkreis einer Plakatstelle aufgehalten haben.
In der Schweiz steht bereits eine ganze Reihe von offiziell erhobenen Daten
zur Mobilität in der Freizeit, zum Einkaufen und zur Arbeit zur Verfügung.
Diese stammen teilweise aus der Volkszählung und werden zusätzlich noch mit
weiteren Daten verknüpft. Dadurch lassen sich relativ gute Aussagen über die
Mobilität von soziodemografisch definierten Personen machen.
Mit entsprechenden Modellrechnungen können die Bewegungen zwischen den
Gemeinden recht gut erfasst werden. Und bei kleineren Gemeinden genügen
diese Angaben auch. Je kleiner eine Gemeinde, desto größer die Wahrscheinlichkeit, an einer Plakatstelle vorbeizukommen.
Daraus lassen sich die Kontaktchancen bei einer durchschnittlichen Belegung,
nicht aber einer einzelnen Plakatstelle ableiten. Für größere Gemeinden genügt
dies nicht. Hier bedarf es zusätzlicher Informationen, die dank des neuen Forschungsansatzes erhoben werden können. Berücksichtigt werden dabei die zehn
größten Agglomerationen.
35
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Auf Grund der Schlüsselfunktion des Wohnorts kommt der Auswahl der
Auskunftspersonen große Bedeutung zu. Dabei geht es darum, in den jeweiligen Zielgebieten Zellen zu bilden, deren Bewohnerinnen und Bewohner auf
Grund ihrer Verkehrsverbindungen ein möglichst ähnliches Mobilitätsverhalten
aufweisen.
Diese Zellen bestehen vorwiegend aus kleinen Gemeinden einer Agglomeration
oder aus Ortsteilen bzw. Quartieren von Gemeinden. Für jede dieser Zellen muss
eine repräsentative Stichprobe (mit Quotenvorgaben nach Geschlecht und den
vier Altersgruppen 15 bis 29, 30 bis 44, 45 bis 59 und über 60 Jahre) gebildet
werden.
Die Erhebung dieser Werte geschieht nach dem Konzept von Swiss Poster
Research mit Hilfe von GPS-Geräten. Damit können während einer Woche
sämtliche Bewegungen erfasst werden, während bei einer Befragung höchstens
die Rekonstruktion des gestrigen Tages möglich ist.
Allerdings hat die Messmethode zwei Nachteile: (1) Sie ist sehr teuer, und (2)
gemessen werden kann nur dann, wenn auch Satellitenempfang möglich ist.
Innerhalb von Gebäuden (Bahnhöfen, Shopping-Zentren, Parkhäusern) und in
öffentlichen Verkehrsmitteln ist das nicht möglich. Ausgerechnet dort aber finden
viele Kontakte mit Außenwerbung statt, die man nicht einfach links liegen lassen
kann.
Man behilft sich damit, dass für jedes dieser Objekte die Frequenzzahlen ermittelt werden und mit einem Kenner des Objekts abgeschätzt wird, welche Plakatstelle welchen Anteil an den Frequenzen haben dürfte. Damit jedoch erklärt
das Verfahren die Veränderungen im Nutzungsverhalten zur Quantité négligeable
und ersetzt die Erhebung des tatsächlichen Verhaltens durch Schätzung auf der
Basis früheren Verhaltens. Mit diesem Vorgehen könnte man die Notwendigkeit
jedweder Erhebungen für überflüssig erklären und sie durch grobe Schätzung
„über den Daumen“ ersetzen.
Anschließend werden die Passagen in Kontakte umgewichtet. Allerdings ist
offen, ob eine solche Differenzierung der Kontakte nach soziodemografischen
Kriterien möglich ist, so dass diese Plakatstellen bei der Berechnung der Reichweite integriert werden könnten.
Swiss Poster Research ist eine von den beiden schweizerischen Plakatgesellschaften Allgemeine Plakatgesellschaft (APG) und Clear Channel Plakanda
(CCP) getragene Gesellschaft. Verantwortlich für die Durchführung der Studie
ist die input Unternehmens- und Marketingberatung, Zürich, die zugleich als
Geschäftsstelle von Swiss Poster Research fungiert. Als Generalunternehmerin
36
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
ist input auch für die Datenauswertung und das zu entwickelnde Planungstool
verantwortlich.
Swiss Poster Research hat zwei Forschungsobjekte: die Plakatstellen und die
Bevölkerung. Erfasst werden für beide Objekte die Kontaktgelegenheiten (Anzahl
Passagen) und die Kontakte auf Werbeträgerebene.
Zur Mobilitätsanalyse mit Hilfe des Global Positioning Systems (GPS) erhalten
alle Teilnehmer der Erhebung ein Empfangsgerät in der Größe eines Handys, das
während einer Woche bei jedem Gang außerhalb der Wohnung getragen werden
muss.
Das Gerät zeichnet laufend die Positionen der Probanden auf. Nach einer Woche
werden die gesammelten Daten ausgewertet und auf geografische Systeme
übertragen, in denen auch alle Plakatstandorte verzeichnet sind. Anschließend
werden die gemessenen Bewegungen mit den Plakatstandorten verknüpft. Dabei
ist klar definiert, in welchem Fall eine Passage in welcher Gewichtung als
Werbeträgerkontakt gezählt wird.
Auf der Basis von empirischen Studien wurde festgelegt, dass grundsätzlich alle
Kontakte einfließen, die in einem Raum von maximal 80 Meter Distanz und
einem Winkel von 150 Grad zur Plakatstelle erfolgen (je 75 Grad links und rechts
einer senkrechten Linie zur Plakatstelle).
Innerhalb dieses Beachtungsraums gelten verschiedene Parameter. So wird ein
Winkel von unter 45 Grad zwischen einer senkrechten Linie zur Plakatfläche und
der Passage als frontaler Kontakt definiert. Liegt dieser Winkel zwischen 45 und
110 Grad, ist es ein paralleler Kontakt und bei über 110 Grad überhaupt kein
Kontakt.
Entscheidend für das Gewicht der Beachtungschance ist auch die Geschwindigkeit der Passage. Auf Grund der Ergebnisse des Pilottests wurde entschieden,
dass bei einem Tempo von weniger als 10 km/h ein voller Kontakt gewertet wird.
Erfolgt die Passage schneller, wird ein paralleler Kontakt mit dem Faktor 0,5
heruntergewichtet.
Zur Tageszeit wurde festgelegt, dass bei beleuchteten Stellen alle Passagen
einfließen, während bei unbeleuchteten Stellen grundsätzlich nur die Kontakte
zwischen 6 und 20 Uhr gezählt werden. Dadurch fielen beim Pilottest z.B. 8,9
Prozent aller Passagen weg.
Gewichtet wurde auch auf der Basis von Ergebnissen ausländischer Untersuchungen eine Häufung von Flächen am gleichen Standort. Bei zwei Flächen
37
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
beträgt der Faktor 0,8, bei drei 0,65 und bei vier 0,5. Im Extremfall führt dies
dazu, dass die Kontakte einer schnellen, parallelen Passage (Faktor 0,5) vor
einer Ansammlung von vier Stellen (Faktor 0,5) insgesamt mit dem Faktor 0,25
gewichtet werden. Als Grundgesamtheit wird die Bevölkerung ab 15 Jahren
im untersuchten Raum definiert. Erfasst werden alle Flächen F12 und F200 in
diesem Raum.
Das Forschungskonzept wurde Ende 2002 im Rahmen einer Pilotstudie in
Winterthur getestet. Zu überprüfen waren die Zuverlässigkeit und die
Leistungsstärke der entwickelten GPS-Geräte, das Verhalten der Personen beim
Tragen der Messgeräte, die Software zur Analyse der gesammelten Daten und
die Handhabung möglicher Probleme, beispielsweise bei der Rekonstruktion von
Wegen.
Im Test bestätigte sich, dass die GPS-Technik zur Erfassung der Mobilität einer
Person über mehrere Tage hinweg geeignet ist. Auch die entwickelte Software
funktionierte. Schwieriger war es, Testpersonen für das Tragen von GPS-Geräten
in der Größe eines Mobiltelefons zu gewinnen.
Hinterher gaben allerdings mehr als 80 Prozent der Testpersonen an, sie würden
wieder ein solches Gerät während einer Woche mit sich tragen. Problematisch
bleibt die Erfassung der Bewegungen der Benutzer von öffentlichen Verkehrsmitteln, weil dort der Satellitenempfang nicht funktioniert.
Die Untersuchung der Bevölkerungsmobilität basiert auf der Beobachtung des
Verhaltens während mindestens einer Woche. Dadurch ist es möglich, zwischen
den Bewegungen einer Person und einer spezifischen Plakatstelle eine Verbindung herzustellen, und es müssen die Berechnungen nicht mehr auf einen Durchschnittswert für sämtliche Plakatstellen abgestützt werden.
Ausgangspunkt für die Methode ist die Überlegung, dass die unmittelbare Umgebung einer Plakatstelle entscheidet, wie hoch die potenzielle Kontaktzahl ist,
welches Publikum vorwiegend an einer Stelle vorbeikommt und wie intensiv ein
Plakat wahrgenommen werden kann.
Im Unterschied zu allen anderen Medien ist das Umfeld eines Plakats wesentlich stabiler und wird durch eher langfristige Veränderungen (Neubauten, neue
Verkehrsführungen, Geschäftsschließungen usw.) beeinflusst. Einen großen Einfluss auf die Kontaktchancen einer Anschlagstelle hat der Wohnort als der Ausgangspunkt der täglichen Mobilität einer Person.
Im Pilottest ergaben sich kaum Probleme mit der Handhabung. Die Geräte funktionierten aber lediglich bei 79 Prozent der Probanden während der ganzen
38
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Woche. Diese technischen Probleme sollen im Anschluss an den Pilottest aber
behoben worden sein.
Die Akzeptanz bei den Probanden der Pilotstudie bezeichneten die Veranstalter
als gut. 65 Prozent würden sehr gerne oder gerne wieder bei einem solchen
Projekt mitmachen, weitere 24 Prozent immerhin eventuell. Allerdings war der
Rekrutierungsaufwand beträchtlich. Er lag im gleichen Rahmen wie für die
Rekrutierung von Teilnehmern für Radiocontrol.
21 Prozent der Testteilnehmer erklärten, dass sie das Gerät nicht immer dabei
hatten. Mehrheitlich waren das ausgerechnet Jugendliche, die sich außer Haus
begaben. Für ein Medium, das seine Stärke gerade in dieser Zielgruppe hat, ist
das unbefriedigend. Mit dazu beigetragen hat möglicherweise das unattraktive
Design des für den Pilottest eingesetzten GPS-Geräts. In der endgültigen Version
soll es deshalb stärker dem Erscheinungsbild eines Handys angeglichen werden.
Getestet wurde auch der Einsatz eines mit GPS kombinierten Handys. Die Untersuchungen des Mobilitätsverhaltens in den zehn größten Agglomerationen sollen
bis 2006 abgeschlossen sein.
Die Ergebnisse des Pilottests in Winterthur zeigten z.B., dass an Dienstagen
die höchste Zahl Passagen erzielt werden, während Sonntage erwartungsgemäß
die schwächsten Tage sind. Der schwächste Werktag war angesichts teilweise
geschlossener Geschäfte der Montag. Aber er brachte es dennoch im Rahmen des
Pilottests auf 60 Prozent der Passagen des Dienstags. Die Aufteilung der Passagen auf die einzelnen Stellen ergibt, dass 53 Prozent von den 30 Prozent stärksten
Plakatstellen bewirkt werden, während die 30 Prozent schwächsten Stellen lediglich auf 9,3 Prozent aller Passagen kommen.
Die Geschwindigkeit lag bei 21,3 Prozent aller Passagen unter 10 km/h. 26,3
Prozent der Passagen erfolgten frontal, 43,4 Prozent parallel, und der Rest war
nicht kontaktwirksam. Insgesamt wurden während des Pilottests über 133 000
Passagen gemessen. Davon fielen aber rund 30 Prozent aus, weil sie nachts mit
unbeleuchteten Stellen oder aus der falschen Richtung erfolgten.
Als Medienkontakte wurden rund 93 000 Passagen definiert. Fast 43 000 davon
mussten als parallele Kontakte mit mehr als 10 km/h Geschwindigkeit mit dem
Faktor 0,5 gewichtet werden, so dass am Schluss noch knapp 72 000 Werbekontakte blieben.
Die Grundgesamtheit besteht aus allen Personen einer Agglomeration, die älter
als 16 Jahre sind. Deshalb werden alle Kontakte durch die außerhalb der jeweiligen Agglomeration wohnenden Personen nicht berücksichtigt.
39
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Allerdings könnte dem hochkomplexen Swiss Poster Research ein ähnliches
Schicksal wie dem deutschen Lkw-Mautsystem drohen: Wie alle hochkomplexen
Systeme ist es höchst störanfällig und könnte es an vielen Stellen immer wieder
erforderlich machen, dass man auf der einen Seite mit hohem Komplexitätsgrad
misst und dann aber bei der Bewältigung der Systemlücken alle Fünfe eine
gerade Zahl sein lässt.
Noch aus einer ganz anderen Richtung droht dem System große Gefahr. Seit
Anfang 2004 nämlich vermarkten die Telecontrol-Gruppe und die GfK AG international die „Mediawatch“ unter der Bezeichnung „Mediacontrol“. Damit tritt
Mediacontrol international in Konkurrenz zu einer Reihe von nationalen Mediaanalysen, vor allem zu Swiss Poster Research.
Die erstmals 2003 präsentierte Mediawatch stellt die zweite Generation der
Radiocontrol-Uhr dar. Sie kann über das Radio hinaus auch andere Medien
messen.
Neben technischen Verbesserungen ist die Mediacontrol-Uhr mit einem
zusätzlichen Empfänger ausgestattet, der Signale empfangen kann, die von kleinen Sendern ausgestrahlt werden. So kann beispielsweise auch der Hörort festgestellt werden, nachdem der Panelteilnehmer einen solchen Minisender am
Autoradio, an der Heimstereoanlage, am Radiogerät im Büro oder am Computer
angebracht hat. Damit lässt sich die gesamte auditive Mediennutzung differenziert messen.
Die Mediacontrol-Uhr misst dreimal 5 Sekunden pro Minute (vorher nur einmal),
hat dank verbesserter Batterien eine längere Tragezeit, verfügt über einen optimierten Hörbereich, und die Hörfunknutzung via Kopfhörer kann ebenfalls
gemessen werden.
Daneben wurde die Auswertungszentrale, die so genannte Sound Sampling Unit,
verbessert, und neu gibt es auch eine Haushalt-Docking-Station für die Uhr, die
via Modem eine tägliche Online-Berichterstattung ermöglicht. Ferner konnten
die Kosten sowohl für die Uhr als auch für die Zentrale um 50 Prozent gesenkt
werden.
Mediacontrol kann neben der Radionutzung bei derselben Zielperson ohne Zutun
des Trägers auch die Nutzung der Medien Kino und Plakat messen. Sie soll auch
die Messung von Printmedien ermöglichen. In die Uhr ist ein Modul eingebaut
zur Messung des Printkonsums.
Anders als bei Radio, Kino und Plakat, wo die Messung automatisch erfolgt,
muss die Testperson bei der Messung des Printkonsums aber selbst aktiv werden.
40
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Liest eine Testperson eine Zeitung, sollte sie mittels eines Rädchens auf dem
Uhrendisplay 200 Titel durchscrollen und den entsprechenden Titel eingeben.
Regelmäßig gelesene Titel erscheinen auf der Liste zuoberst.
Die auf dem Display der Uhr erscheinenden Printtitel müssen mittels Tastendruck als „heute gelesen“ markiert werden. Damit der Panelteilnehmer nicht
jedes Mal durch die gesamte Titelliste scrollen muss, wird im Rekrutierungsinterview nach seinem Printmedienkonsum gefragt, und die entsprechenden Titel
erscheinen dann an der Spitze der Liste. Abends wird die Testperson nach der
Vollständigkeit ihrer Angaben gefragt.
Das Gerät misst weiterhin als Uhr am Handgelenk die Radio- und TV-Nutzung
mit Hilfe eines eingebauten Mikrofons. Das Messen der Printnutzung ist auf
aktive Mitarbeit angewiesen.
Bei der Plakat- und Kinoerhebung bedarf es solarbetriebener Sender in der
Größe eines Chips, die an den einzelnen Plakatstellen oder in den Kinosälen
platziert werden und stetig je ein individuelles Signal aussenden. Kommt ein
Mediacontrol-Panelist in die Nähe, erkennt dessen Uhr die Signale und speichert
diese ebenso wie den Zeitraum des Empfangs.
Wenige Probleme scheint es beim Medium Kino zu geben. Die kleinen Sender
ließen sich ohne großen Aufwand in den Kinosälen platzieren, womit schnell
Nutzungszahlen für das Kino erhoben werden könnten. Es wäre technisch gesehen auch relativ einfach möglich, Plakatstellen mit solchen Sendern auszurüsten.
Allerdings müssten in diesem Fall bei jeder Plakatstelle Sender montiert
werden.
Die tägliche Mitwirkungspflicht, auch in unpässlichen Momenten, stellt wohl
die Achillesferse von Mediacontrol dar. Offen ist auch, ob die solarbetriebenen
Sender selbst bei längeren Schlechtwetterperioden oder Schneefall zuverlässig
funktionieren. Möglich ist auch Vandalismus an Plakatstellen. Andererseits ist
Mediacontrol in der Lage, mehrmals jährlich aussagekräftige Resultate zu liefern, eine entsprechende Stichprobe vorausgesetzt.
Bei der Telecontrol-Gruppe sind längst Überlegungen über erweiterte
Einsatzmöglichkeiten des Mediacontrol-Systems im Gange: Verbunden mit Sendern in Filialen von Großverteilern etwa gäbe das System diesen Unternehmen
die Information, über welche Medien sie ihre Kunden am besten erreichen. Und
auch in andern Bereichen der Marktforschung und Wissenschaft sieht man für
das Gerät ein weites Anwendungsfeld.
41
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Beim Fernsehen hat sich die technische Messung schon seit den 1980er-Jahren
als eindeutiger Fortschritt gegenüber der Befragung erwiesen. Darüber verliert
heute niemand mehr ein Wort. Wie sich die technische Messung bei allen anderen Medien entwickelt, wird die Zukunft zeigen. Ganz sicher ist schon jetzt, dass
sie eminente Vorzüge gegenüber der reinen Befragung besitzt.
Wolfgang J. Koschnick wurde 1942 in Danzig
geboren und wuchs in Bremen auf. Er studierte
Politikwissenschaften und Volkswirtschaftslehre
und arbeitete als Journalist in Deutschland und
den USA, bevor er Mitarbeiter des Instituts für
Demoskopie in Allensbach wurde. Es folgten
Chefredaktionen bei den Zeitschriften Horizont
Advertising Age in Frankfurt am Main, ZV + ZV
und Copy in Düsseldorf. Koschnick ist heute als
Unternehmensberater, Fachjournalist und Buchautor selbstständig und hat über 40 anerkannte
wissenschaftliche Nachschlagewerke für Management, Marketing, Marktkommunikation, Markt-,
Media-, Kommunikations- und Sozialforschung
geschrieben.
42
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Radiocontrol –
Die Befunde zeigen, dass die Zukunft
dem Audiometer gehört
Von Matthias Steinmann und Manuel Dähler
Die zunehmende Vielfalt auch der Radiolandschaft führt die herkömmlichen
Befragungsinstrumente zunehmend an ihre Grenzen. Dies zeigen verschiedene
Erkenntnisse aus der Einführung eines Audiometersystems in der Schweiz und
nun auch in Großbritannien. Der Radiokonsum zeigt sich als vielfältiger, breiter
und weniger gewohnheitsgebunden als bisher angenommen. Diese Annahmen
oder Erkenntnisse stützen sich auf Daten, die mit Instrumenten gewonnen
wurden, die eben diese Annahmen unterstützen – das Wahrnehmen des Forschungsgegenstandes ist eben nicht vom eingesetzten Beobachtungsverfahren zu
trennen1. Unser Artikel soll ein Beitrag sein, auch in diesem Bereich der Publikumsforschung einen Perspektivenwechsel einzuleiten. Blicken Sie mit uns „um
die Ecke“ auf das Neue!
Ausgangslage
Die Kommunikationsstrukturen in den westlichen Gesellschaften werden zunehmend komplexer, einerseits durch die Bildung neuer sozialer Gruppen („Milieus“,
Lifestyles, Subkulturen), andererseits durch die Betonung der individuellen
Freiheiten und Möglichkeiten unterstützt durch technologische Entwicklungen,
die eine große Mobilität ohne Verlust der Kommunikationsmöglichkeiten
ermöglichen. In diesem Zusammenhang bilden sich auch neue Bedürfnisse und
Nutzungsmuster in Bezug auf das Radio heraus.
Von technischer Seite steht der Produktion und Verbreitung einer Vielzahl neuer
Radioprogramme nichts im Wege. Die Liberalisierung des Radiomarktes und das
Bereitstellen neuer Verbreitungsmöglichkeiten wie Kabelnetzwerk, Satellit, digitale terrestrische Verbreitung oder Internet sind weit fortgeschritten.
Hinzu kommen die Besonderheiten des Mediums Radio: Es ist ein omnipräsentes
Individualmedium. Als solches dient das Radio heute zu einem beachtlichen Teil
als Hintergrundmedium, wird also mit einem geringen Grad an Aufmerksamkeit
genutzt. Zudem ist das Radio ein auditives Medium, der Höreindruck ist in der
Regel flüchtiger als visuelle Eindrücke.
1
als Einführung: Maturana, H.R., Varela, F.J.: Der Baum der Erkenntnis. Bern (Scherz) 1987; oder:
Watzlawick, P.: Die erfundene Wirklichkeit, München (Piper) 1985
43
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Die Kombination von größerem Angebot, längerer Nutzung und niedrigerem
Aufmerksamkeitsgrad führt zu einer zunehmenden Erhebungsproblematik, insbesondere in Bezug auf die erinnerungsgestützten Befragungsmethoden und die
Tagebuch-Methode, deren Validität in absehbarer Zeit in Frage gestellt wird.
Gleichzeitig wachsen die Bedürfnisse der Programmschaffenden und der Werbung nach zunehmend präziseren Daten zur Planung und Kontrolle, die auch
immer schneller verfügbar sein müssen. Aus all diesen Gründen gehört dem
Radiometer die Zukunft. Mit dem hier vorgestellten System Radiocontrol werden
seit dem Jahre 2001 in der Schweiz die offiziellen Hörfunkdaten erhoben.
Die Funktionsweise von Radiocontrol
Die von der interessierenden Person gehörten Radioprogramme werden in einem
tragbaren Messgerät (Armbanduhr) stichprobenartig digitalisiert und datenreduziert aufgezeichnet: Ein integriertes Mikrophon registriert in regelmäßigen
Abständen (wählbar sind 20, 30, 60 oder 120 Sekunden) für 4 Sekunden die
Umgebungsgeräusche, die unmittelbar digitalisiert und um den Faktor 120 reduziert werden. Zurück bleibt eine Art akustischer Fingerabdruck, der zusammen
mit der Aufzeichnungszeit und weiteren Messdaten gespeichert wird.
Der Reduktionsprozess ist irreversibel: Die ursprünglichen (analogen) Geräusche
können nicht mehr reproduziert werden. Die Uhr schützt damit die Privatsphäre
des Trägers, der Datenschutz ist gewährleistet.
Die Uhr ist zusätzlich mit einem Thermometer ausgerüstet, um die temperaturbedingten Gang-Ungenauigkeiten des Quarzes softwaremäßig auszukorrigieren.
Weiter dienen die Temperaturangaben zusammen mit dem Bewegungssensor
zum Feststellen der Tragezeiten des Messgerätes.
Der heute eingesetzte Speicher kann gut 10 000 Messpunkte speichern. Werden
diese im Minutentakt gesammelt, reicht der Speicher für eine Messperiode von
sieben Tagen und ca. sechs Stunden. Ist der Speicher voll, wird die Testperson
aufgefordert, die Uhr an die Auswertungszentrale zurückzusenden.
Im gleichen Takt wie die Uhr zeichnen verschiedene Computerstationen
die direkt ab Antenne, Kabel oder Satellit abgegriffenen interessierenden
Hörfunkprogramme auf und verarbeiten sie auf die gleiche Weise wie die Uhr.
Allerdings zeichnen diese Stationen während 10 Sekunden auf, um leichte Zeitschwankungen, vor allem aber die durch unterschiedliche Verbreitungsvektoren
entstehende Staffelung der Radiosignale aufzufangen: Digitalisierungsprozesse
(z.B. DAB) und lange Übertragungswege (z.B. Satellit) verzögern das Radiosignal gegenüber dem UKW-Empfang. Die Stationen sind über ein Netzwerk
44
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
verbunden, um die Aufzeichnungsqualität permanent zu überwachen und die
aufgezeichneten Daten zur Auswertungszentrale zu übertragen.
Durch den Vergleich der Daten aus den Uhren („Fingerabdrücke“) mit den aufgezeichneten Hörfunkprogrammen („Kartei“) werden die eigentlichen Nutzungsdaten ermittelt.
Erfragte und gemessene Nutzungsdaten im Vergleich
Vor der Umstellung auf die Radiocontrol-Methode wurde die Hörfunknutzung in
der Schweiz durch jährlich 18 000 persönliche Interviews erhoben, die während
des ganzen Kalenderjahres durchgeführt wurden. Zahlreiche Untersuchungen im
Vorfeld der Umstellung und letztlich auch der dreimonatige Parallelbetrieb ergaben reichlich Material, den Methodenunterschied zu dokumentieren.
Im Vergleich zum persönlichen Interview weist Radiocontrol höhere Reichweiten aus, die Hördauer dagegen liegt tiefer als in der Befragung (die gleichen
Effekte – allerdings noch ausgeprägter – zeigen sich zwischen der Tagebuchmethode und Radiocontrol, wie mehrere Tests in Großbritannien zeigen). Zwei
Hauptursachen führen zu diesem Effekt:
Der Faktor Methode
Im Befragungsraster der persönlichen Interviews kann je Viertelstunde höchstens
ein Sender erfasst werden. Hatte die befragte Person innerhalb dieser Viertelstunde zwei unterschiedliche Stationen gehört, wurde die längere Sequenz
notiert. Dem erfassten Sender wurden entsprechend 15 Minuten Nutzung zugeschrieben, auch wenn er beispielsweise nur acht Minuten gehört wurde. Die
Uhr dagegen weist aus, was hörbar war: nur acht Minuten des Senders A, aber
auch die vier Minuten des Senders B in der gleichen Viertelstunde. Das Messsystem stellt also beide gehörten Stationen fest, was zu höheren Reichweiten führt
(Abb. 1), allerdings mit einer kürzeren Nutzungszeit (Abb. 2), dementsprechend
sinkt die Hördauer im Methodenvergleich (andere Erhebungsregeln erlauben
in diesem Falle das Notieren beider Stationen, was die Unterschiede in der
Hördauer weiter vergrößert). Ein Teil der Differenzen ist somit direkt auf die
unterschiedlichen Methoden zurückzuführen.
45
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Abb. 1: Vergleich der Tagesreichweiten, erhoben mit der Medienstudie
(persönliche Interviews) und Radiocontrol
Abb. 2: Vergleich der Nutzungsminuten, erhoben mit der Medienstudie
(persönliche Interviews) und Radiocontrol
46
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Der Faktor Mensch
Weltweit wurde bis heute die Radionutzung ausschließlich erfragt: telefonisch,
in persönlichen Interviews oder schriftlich via Tagebuch. All diese Verfahren
stützen sich auf die Erinnerung der Person, die Auskunft gibt. Allerdings wird
Auffälliges und Eindrückliches leichter erinnert: der intensive Duft, die grelle
Farbe, die große Stille. Alltägliches zeichnet sich dagegen nicht zuletzt durch
Unauffälligkeit aus und ist deshalb schwieriger zu erinnern. Hören Sie eigentlich
die Mittagsnachrichten am Radio? Tun Sie das täglich – auch gestern?
Im Vorfeld der Einführung in der Schweiz wurden 1999 in einem ausgedehnten
Test2 135 uhrentragende Personen während der Messwoche spontan von einem
Interviewer besucht, der zusätzlich das herkömmliche persönliche Interview
durchführte. Auf Grund des Verhältnisses zwischen der gemessenen, auf Viertelstunden hochgerechneten Nutzung und der im Interview erfragten Nutzung
wurden die Personen in drei Gruppen aufgeteilt:
• Gruppe 1, Die erfragte Nutzung liegt um 15%
und mehr über der gemessenen Nutzung:
42% der 135 Fälle
• Gruppe 2, Erfragte und gemessene Nutzung
unterscheiden sich um weniger als 15%:
18% der 135 Fälle
• Gruppe 3: Die erfragte Nutzung liegt um mindestens
15% unter der gemessenen Nutzung:
40% der 135 Fälle
Die nähere Betrachtung der Gruppen zeigt deutliche Unterschiede im Bezug auf
das Radioverhalten:
Die erste Gruppe, deren Nutzung im Interview länger ist als gemessen mit Radiocontrol, hört häufig während längerer Tagesaktivitäten Radio (eine bis mehrere
Stunden). Die Messuhr kann hingegen während der im Interview angegebenen
Zeiten nur teilweise einen Sender feststellen. Beispielsweise gibt eine Person an,
während ihrer Berufsarbeit im Büro Radio zu hören. Von diesen – gemäß Interview – sieben bis acht Stunden Mediennutzung stellt die Messuhr allerdings nur
einen Teil fest, da sich die befragte Person nicht ununterbrochen in ihrem Büro
aufhält. Weiter kann sie telefonieren, das Fenster zur Straße öffnen oder in anderer Weise die akustischen Bedingungen so verändern, dass das Radio für die Uhr
(und natürlich auch für die Person) zeitweise unhörbar wird. Solche Differenzen lassen sich vor allem während der Arbeitszeiten außer Haus, während Arbei2
Steinmann, M. & Dähler, M. (1999): Radiocontrol. Bericht November 1999. SRG idée suisse,
interner Testbericht; vgl. auch Dähler, M.: Radionutzung im Spiegel moderner Messinstrumente, in:
Oppenheim, R., Stolte, D., Zölch, F.A.: Das Publikum als Programm, Bern (Stämpfli) o.J.
47
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
ten zu Hause oder während der Freizeit zu Hause feststellen. In anderen Fällen
wurde die im Interview genannte Nutzung des Radios im Auto nicht oder kürzer
als angegeben gemessen.
In der dritten Gruppe (Radiocontrol stellt mehr Radionutzung fest als im Interview angegeben wurde) wird die berichtete Radionutzung mit kürzeren, den
Tagesablauf klar strukturierenden Tätigkeiten verbunden: mit dem Aufstehen,
der Morgentoilette, den Mahlzeiten oder dem Autofahren. Häufig zeigt sich
während solcher Sequenzen eine hohe Übereinstimmung zwischen Messung und
Erinnerung. Dagegen wird in diesen Interviews Radiohören „vergessen“, wenn
es innerhalb längerer Tätigkeiten ohne klare Zeitstruktur stattfindet. Radionutzung, deren Beginn oder Ende nicht mit einem Tätigkeitswechsel zusammenfällt,
ist offenbar schwieriger zu erinnern: Die Uhr misst während der Freizeit oder
während der Arbeit Radionutzung, die im Interview nicht erwähnt wird. Oder die
Uhr registriert den berichteten Radiokonsum, aber zeitlich länger oder häufiger
als angegeben.
Zusammengefasst stellten wir fest: In den persönlichen Interviews wird die
Mediennutzung häufig parallel zu bestimmten Tagestätigkeiten geschildert.
Tätigkeitswechsel (z.B. von der Freizeit zum Autofahren) gehen häufig Hand in
Hand mit Änderungen der Mediennutzung. Die Tagestätigkeiten dienen – und
das ist bei Time-Budget-Studien ja explizit gewollt – als Gerüst, um die Mediennutzung im Tagesverlauf festzumachen. Die großen Unterschiede zwischen Messung und Erinnerung tauchten vorwiegend während der längeren Tätigkeiten auf:
In den zwei- bis vierstündigen Phasen der Arbeit oder Freizeit wird Mediennutzung entweder für die ganze Dauer angegeben oder gar nicht; die Messung liegt
dazwischen. Die Mediennutzung während kürzerer Tätigkeiten wie Morgentoilette, Mahlzeiten oder Autofahrten zeigen eine viel höhere Übereinstimmung
zwischen den beiden Methoden, auch wenn sie teilweise leicht zeitversetzt auftauchen.
Wie kann die Validität eines weltweit neuen Systems festgestellt werden? Ein
Vergleich mit den persönlichen Interviews zeigt – wie eben beschrieben – vor
allem große Unterschiede auf. Und sämtliche heute akzeptierten Instrumente für
die Erhebung der Hörfunknutzung sind Befragungen, persönliche, telefonische
oder schriftliche. Radiocontrol wurde entwickelt, weil eben gerade diese Befragungsinstrumente heute an ihre Messgrenzen gelangen; weil das Erinnern an das
Radiohören der Vortages immer schwieriger und ungenauer wird (vgl. Ausgangslage).
Wir haben darum Daten aus Radiocontrol mit einem anderen elektronischen
Messsystem verglichen: mit Telecontrol, dem in der Schweiz eingesetzten TVMeter. Im Gegensatz zu Radiocontrol misst Telecontrol im 30-Sekunden-Takt
die Nutzung eines ganzen Haushalts in einem fixen Panel direkt am Gerät und
48
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
damit nur das Fernsehen zu Hause, aber auch wenn der Ton ausgeschaltet ist.
Auch hier sind also Differenzen zu erwarten. Die höhere Messfrequenz und die
vom Ton unabhängige Messung lässt etwas höhere Werte bei Telecontrol erwarten, wobei die mit Radiocontrol erfassbare Fernsehnutzung außer Haus diese
Differenz wiederum vermindern sollte.
Gegen 60 TV-Sender werden im Radiocontrol-System testweise mit aufgezeichnet. Anhand dieser Programme lässt sich feststellen, ob das „TV hören“ (gemessen mit der Radiocontrol-Uhr) in etwa die gleichen Ergebnisse zeigt wie das „TV
sehen“ (gemessen mit Telecontrol). Obschon zwei unterschiedliche Messsysteme
eingesetzt werden, die auf unterschiedlichen, voneinander unabhängigen Panels
basieren, ist die Übereinstimmung erstaunlich (Als Beispiel siehe Abb. 3) und
zeigt, dass Radiocontrol valide misst.
Abb. 3: Gegenüberstellung der Ratings für SF1+2 der beiden Messsysteme
Telecontrol und Radiocontrol
Methodenumstellung in der Schweiz
Die Herausforderung bei der Einführung des Radiocontrol-Systems in der
Schweiz bildete neben dem erstmaligen Einsatz eines Radiometers überhaupt der
Aufbau einer adäquaten Stichprobe, die folgenden Kriterien genügen sollte 3:
3
Alle Angaben zur Stichprobe in der Schweiz gelten für den Zeitraum 2000 – 2003, auf das Jahr 2004
erfolgt eine disproportionale Aufstockung um 25 Prozent, vorwiegend in den bevölkerungsschwachen
Verbreitungsgebieten.
49
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
• Bevölkerungsrepräsentativität: Wie schon die persönlichen Interviews
(insgesamt 18 400 pro Jahr) sollte auch die Radiocontrol-Stichprobe die
Bevölkerung ab 15 Jahren in allen Sprachregionen erfassen. Die Rekrutierung wurde in den Landessprachen durchgeführt, d.h. in der Deutschen
Schweiz (4,3 Mio. Einwohner) wurden die Rekrutierungsinterviews in
Deutsch durchgeführt, in der Suisse romande (1,4 Mio.) in Französisch, in der
Svizzera italiana (0,3 Mio.) in Italienisch. Die Stichprobe ist damit sprachassimiliert: Wer der regional gesprochenen Sprache mächtig ist, kann teilnehmen, die Nationalität ist kein Rekrutierungskriterium. Für die rätoromanische
Sprachgruppe wurden Personen rekrutiert, welche die vierte Landessprache
zumindest verstehen (0,06 Mio.).
• Repräsentativität in den Empfangsgebieten: Die schweizerische Radiolandschaft ist sehr differenziert durch die beachtliche Zahl von Privatradios
in teilweise bevölkerungsschwachen Verbreitungsgebieten. Die geografische
Verteilung geschah deshalb entsprechend den von der Zulassungsbehörde
festgelegten Verbreitungsräumen der kommerziellen Privatstationen, die sich
teilweise überschneiden, was letztendlich zu 50 geografisch unterschiedlichen Gebieten („Teilgebiete“, siehe Abbildung 4) führt, in denen je eine
Stichprobe gezogen wird. Diese Teilgebiete lassen sich später auswertungstechnisch kombinieren und so auch die größeren Räume (Empfangsgebiete,
Sprachregionen, Staat) repräsentativ abbilden.
Abb. 4: Geografische Struktur der Radiocontrol-Stichprobe: Teilgebiete als
kleinste Einheiten
50
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
• Repräsentativität über Einzeltage wie über längere Zeiträume: Die Messung
muss über das ganze Jahr und über alle Wochentage durchgeführt werden,
da die Radionutzung nach Jahreszeiten und Wochentagen zum Teil erheblich
variiert.
• Hörfunkgerecht: Wie schon zu Beginn des Artikels ausgeführt, erlaubt
die Omnipräsenz des Radios und das breite Angebot an Programmen eine
sehr individuelle Nutzung, was nach einem großen Sample verlangt. Die
Stichprobengröße ist also mindestens auf dem Niveau der persönlichen Interviews weiterzuführen.
• Radiometergerecht: Das Tragen der Radiocontrol-Uhr ist eine aktive Leistung, die durch die Testpersonen erbracht werden muss. Die zumutbare Tragezeit der Uhr dürfte 14 Tage kaum überschreiten4. Bei längeren Tragezeiten
wäre wohl mit einer Abnahme der Tragedisziplin zu rechnen.
Auf Grund dieser Prämissen wählten wir als Stichprobendesign ein „rollendes
Panel“: Die rekrutierten Personen tragen die Radiocontrol-Uhr während einer
Messwoche, dies zweimal jährlich. Jede Person besetzt in dieser Woche eine
„Zelle“, die durch die drei Quotenvorgaben geografischer Raum (50 Räume),
Alter (4 Klassen) und Geschlecht beschrieben ist. Ist die Messwoche zu Ende,
beginnt eine andere Person mit den gleichen Kriterien ihre Messwoche. Damit
entsteht in jeder „Zelle“ ein permanenter Datenstrom, der durch 26 sich ablösende
Personen die 52 Wochen im Jahr abdeckt. Um die Schweiz und Liechtenstein
abzubilden, wurden 812 Zellen benötigt. Mit anderen Worten tragen täglich in
der Schweiz und Liechtenstein 812 Personen eine Radiocontrol-Uhr, (werk-)
täglich wird ein Fünftel dieser Personen ausgetauscht. Theoretisch benötigen wir
hierzu 21 112 Personen (812 Zellen à je 26 Personen), der Pool der Panelisten
umfasst permanent ca. 22 000 Personen, jährlich werden 20 Prozent der Panelisten ausgetauscht.
Um eine Stichprobe dieser Art und Größe ununterbrochen mit Messgeräten zu
versorgen, benötigen wir 3200 Uhren: ¼ ist im Messeinsatz, ¼ ist auf dem postalischen Weg zum Panelisten oder auf dem Rückweg, ¼ bildet die Reserve zum
Überbrücken von Fest- und Feiertagen, ¼ ist in Reserve, um Reparaturfälle und
Schwund über die geplanten fünf Jahre abzudecken.
Hardwaremäßig komplettiert wird das System durch den zentralen Vergleichsrechner und die 17 Stationen zum Aufzeichnen der Radio- und (zu Testzwecken)
TV-Stationen. Dabei setzt sich der abgebildete Schweizer Radiomarkt zusammen
aus 18 Programmen der SRG SSR idée suisse, 54 in der Regel kommerziellen
Privatradios und 48 ausländischen Stationen, die aus den umliegenden Staaten
4
Médiametrie in Paris führte zahlreiche Tests mit 14-tägiger Tragedauer durch, ohne eine Abnahme
der Tragedisziplin innerhalb dieser Zeitspanne festzustellen.
51
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
einstrahlen und immerhin ca. 11 Prozent des Marktes ausmachen. Zusätzlich
werden zu Testzwecken 60 TV-Stationen aufgezeichnet, diese Daten werden
aber nicht publiziert.
Erfahrungen mit der neuen Methode
Information oder Musik?
Schon die Tagesverlaufskurven aus den Tests vor der Systemeinführung zeigten
eine erstaunlich hohe Reichweite des Mediums am Vorabend. Neben den Hauptnutzungszeiten am frühen Morgen und am Mittag stellt sich neu eine starke dritte
„Informations-Primetime“ zwischen 17:00 und 19:00 Uhr.
Die minutengenauen Verlaufskurven zeigen weiter, wie stark Nachrichten und
Informationssendungen den Radiotag gliedern. Die Reichweite von Programmen mit Stärken im Informationsbereich nimmt zu den Info-Zeiten regelmäßig
zu. Musikorientierte Programme dagegen werden während des Tages viel
gleichmäßiger genutzt, der Begleitcharakter dieser Programme zeigt sich in
einem relativ gleichförmigen Nutzungsverlauf – unabhängig davon, ob es sich
um kommerzielle oder öffentlich-rechtliche Programmanbieter handelt.
Als Illustration werden in der Abbildung 5 die Informationsprogramme der SRG
SSR idée suisse (DRS1, La Première und Rete uno) gruppiert und den musikorientierten dritten Programmen (DRS3, Couleur3 und Rete tre) gegenübergestellt.
Abb. 5: Tagesverlaufskurven
Programmen
von
informations-
und
musikorientierten
52
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Gewohnheiten sind gar nicht so mächtig
„Radio ist ein Gewohnheitsmedium.“ Diese Aussage – so zeigen die Ergebnisse
aus Radiocontrol – gründet mindestens teilweise auf den Daten der bisher eingesetzten Befragungsmethoden: Einerseits werden die Daten mit den heute eingesetzten Befragungsinstrumenten zwar täglich gesammelt, dann aber zumeist
als Mittel über Monate, Quartale oder Semester ausgewiesen: Tagesspezifische
Informationen gehen damit verloren. Andererseits neigen befragte Personen
häufig dazu, ihre Gewohnheiten an Stelle des effektiven Verhaltens zu schildern,
vor allem dann, wenn sie sich nicht erinnern können oder mögen.
Tagesgenaue Daten aus dem Messsystem zeigen nun, dass das Radiopublikum
bei bestimmten Ereignissen sehr wohl von der Alltagsroutine abweicht und das
Radiogerät ausschaltet, weil es eine Sportübertragung live oder im Fernsehen
verfolgt (beispielsweise liegt die Radionutzung an Abenden mit wichtigen Eishockey-Spielen deutlich tiefer als an den spielfreien Tagen). Oder die Hörerinnen
und Hörer schalten gezielt ein, um Abstimmungsresultate zu erfahren (z.B. UnoBeitritt der Schweiz), ein Wahlprozedere zu verfolgen (z.B. Bundesratswahlen)
oder Nachrichten über Großereignisse zu hören (z.B. 11. September 2001 oder
Ausbruch des Irak-Krieges).
Abb. 6: Ein außerordentlicher Tag: Tagesverlaufskurve des 20. März 2003
Kritikpunkte und Replik
Mit Ausnahme der Schweiz und Großbritanniens sind noch nirgends Befragungsund Messsysteme zur Erhebung der Hörfunknutzung parallel betrieben worden.
53
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Trotzdem gibt es zahlreiche Argumente und Einwände gegen den Einsatz von
Radiometern5. Diese Aussagen stützen sich in der Regel nicht auf direkte Vergleiche, sondern auf Annahmen und theoretische Überlegungen, denen wir hier
gerne mit unseren mehrjährigen Erfahrungen entgegentreten:
Wie wird „Hören“ definiert?
„Die Definition von ‚Hören‘ ist bei Befragungsinstrumenten genial einfach: Sie
ist das, was die Befragten als solches definieren, eben weil sie sich daran erinnern. Radiometersysteme dagegen zeichnen auch nicht bewusstes Hören auf.“
Diese Annahmen sind sowohl auf Grund unserer Single-Source-Studien als
auch prinzipiell in Frage zu stellen. Die Definition „Nutzung ist, was erinnert
werden kann“ muss schon aus lern- und gedächtnispsychologischer Sicht abgelehnt werden: Das „sich an Gehörtes erinnern können“ setzt beispielsweise eine
gewisse Aufmerksamkeit im Moment des Hörens voraus, zumindest aber im
Moment des Ein- und Ausschaltens des Gerätes, was gemeinhin als aktive,
bewusst gesteuerte Handlung erwartet wird. Alltägliche Routinehandlungen aber
definieren sich gerade über die Tatsache, dass sie nicht mehr bewusst gesteuert
werden müssen. Damit sind sie aber auch schlechter erinnerbar, sie hinterlassen
„weniger tiefe Spuren“ im Gedächtnis. An Stelle der erwünschten Rekonstruktion
greifen Personen in der Befragung dann etwa auf ihr Wissen über ihre eigenen
Gewohnheiten zurück. Damit tendieren Befragungsinstrumente zur Abbildung
der Gewohnheiten und nicht des tatsächlichen, eventuell von der Gewohnheit
abweichenden Verhaltens.
Prinzipiell zu vermerken ist weiter, dass auch das „Nebenbeihören von Musik“
eine gesuchte Gratifikation beim Radio darstellt, als solche Wesensbestandteil
dieses Mediums ist und es diese zu erfassen gilt.
Ist das Radio einmal eingeschaltet, gilt es, die gehörte Station zu identifizieren.
Auch dies geschieht häufig nicht als bewusster Akt, weiß doch der Befragte normalerweise, auf welche Sender seine Geräte abgestimmt sind. Bedient er das
Gerät hingegen nicht selbst (oder hat jemand anderes das Gerät umgestellt), kann
das schon eine gewisse Zeit dauern, bis ihm auffällt, dass die Moderatorin unbekannt ist, die erwartete Sendung nicht beginnt oder ein Jingle signalisiert, was
gehört wird. Ein dem Befragten nicht bekannter Sender kann in der Befragung
gar keine Nutzung verbuchen (selbst wenn er gehört wurde), ein Sender mit
gutem Image dagegen hat gute Chancen, in Zweifelsfällen diese Lücke zu füllen.
Dies sind nur einige der Einflussfaktoren, die sich zwischen das effektive Verhalten und das Berichten darüber schieben.
5
Sehr ausführlich z.B. „Nutzungsmessung des Radios: Uhr oder Ohr?“ von Dieter K. Müller in den
Media Perspektiven 1/2002
54
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Wie konstant ist das Radionutzungsverhalten?
„Wozu sollten tägliche Daten ausgewiesen werden? Das Radionutzungsverhalten zeigt sich doch relativ konstant.“
Diese „relative Konstanz“ des Radionutzungsverhaltens lässt sich aus den Zeitreihen der Hörfunkforschung ableiten. Allerdings entsteht diese Konstanz durch die
eingesetzten Befragungsmethoden, die auf Erinnerung basieren und damit das
Angeben von Alltagstätigkeiten und -gewohnheiten gegenüber der effektiven,
detaillierten und teilweise mühsamen Rekonstruktion des Vortages favorisieren
(siehe auch oben). Zusätzlich werden Interviews in der Regel über Monate oder
Quartale kumuliert, damit werden saisonale, aber nicht tagesspezifische Unterschiede sichtbar. Vergleicht man dagegen Befragung und Messung von Radionutzungsverhalten, zeigt sich, dass Radio wesentlich flexibler und gezielter genutzt
wird als bisher angenommen. Die in Abb. 6 dargestellte außerordentlich hohe
Radionutzung am 20. März 2003, dem ersten Tag des Irak-Krieges, soll dies beispielhaft aufzeigen.
Grenzen des Gedächtnisleistung
„Die Gedächtnisleistung der Befragten muss nicht durch ein Messsystem abgelöst
werden, sie reicht völlig aus: In Deutschland – das zeigt die Media-Analyse –
nutzen zwei Drittel der täglichen Hörer nur einen einzigen Sender, ein weiteres
Viertel pendelt an einem durchschnittlichen Tag zwischen zwei Sendern.“
Aus der Angabe, die Befragten würden nur wenige Sender täglich nutzen (pro
Tag werden gemäß MA durchschnittlich 1,5 Sender gehört), kann nicht geschlossen werden, das Gedächtnis sei nicht überstrapaziert. Im Gegenteil könnten
diese erinnerungsbasierten Angaben ja gerade Ausdruck einer Überlastung des
Gedächtnisses sein: Die durchschnittlich gehörte Anzahl Sender pro Tag liegt
bei gemessenen Daten in der Schweiz mit 2,4 Sendern erheblich höher (mit
den persönlichen Interviews wurden 1,4 Sender täglich festgestellt). Die Messung erfasst gegenüber Befragungsinstrumenten sowohl kürzere Hörsequenzen
als auch das Umschaltverhalten, das Hören von „unbekannten“ Sendern und korrigiert Falschidentifikationen.
Stützfunktion der Tagestätigkeiten
„Ein wichtiges Merkmal der erfragten Tagesablauferhebung ist das Erfassen der
Tätigkeiten als Erinnerungshilfe bei der Rekonstruktion der Mediennutzung.“
55
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Radiocontrol ist auf diese Unterstützung nicht angewiesen. Im Laufe unserer Tests
sind uns sogar erhebliche Zweifel an der Nützlichkeit dieser „Stützfunktion“ der
Begleittätigkeiten gekommen: In einem Koinzidenz-Test wurde bei 135 Personen während der Uhrentragewoche unangemeldet das herkömmliche persönliche
Interview durchgeführt. Bei 82 Prozent der Personen ergaben sich größere Unterschiede zwischen der erfragten und der gemessenen Mediennutzung.
Die Analyse zeigte, dass im Interview vor allem die langen Tagestätigkeitsstrecken
wie Arbeit oder Freizeit sowohl zu Over- wie zu Underreporting führen können:
In manchen Interviews wurde beispielsweise Radiohören während der Berufsarbeit angegeben, was mit sechs bis acht Stunden Radionutzung zu Buche schlug.
Die Uhr zeichnete bei diesen Personen aber häufig deutlich kürzere Hörzeiten
auf (bei 42 Prozent der Testpersonen insgesamt fand sich in den Befragungsdaten ein Overreporting). Andererseits erfassten die Uhren auch Radiohören innerhalb längerer Tätigkeiten, diese Nutzung wurde aber im Interview überhaupt
nicht erwähnt – wohl, weil hier kein Tätigkeitswechsel erfolgte und damit
die „Stützfunktion“ versagte (40 Prozent aller Testpersonen gaben in der Befragung weniger Nutzung an als gemessen wurde). Die Parallelerfragung der
Tagestätigkeiten kann demnach eine verzerrende Wirkung haben.
Die nahe Zukunft bringt Neuerungen
Die heute eingesetzte Radiocontrol-Uhr wurde 1998 konzipiert und 1999 konstruiert. In der Zwischenzeit wurden weltweit zahlreiche Tests durchgeführt,
über 1 000 000 Messtage analysiert und laufend neue Erkenntnisse gewonnen.
Gleichzeitig hat sich die Elektronik rasant weiterentwickelt; was 1999 ein Abenteuer am Rande des technisch Machbaren war, ist heute mit Standard-Bauteilen
zu übertreffen.
Auf Grund der vielen Erfahrungen, Ansprüche und technischen Möglichkeiten
wird im Jahre 2004 die nächste Generation des Messsystems einsatzbereit sein,
wobei diese in neue Gebiete vorstoßen wird:
Heutige Funktionen verbessert
Die zweite Generation der Uhren ist mit einem wesentlich größeren Speicher
ausgerüstet, was einerseits erlaubt, alle 20 Sekunden eine Aufzeichnung der
Umgebungsgeräusche des Uhrenträgers vorzunehmen und gleichzeitig die Messdauer auf vier Wochen zu erhöhen. Weiter wird es möglich sein, die Daten
während der Nacht aus der Uhr auszulesen und an die Auswertungszentrale zu
senden. Wahlweise können so auch feste Panels eingerichtet werden, OnlineAuswertungen werden möglich.
56
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Die neue Uhr empfängt Funksignale
Durch diese Zusatzfunktion eröffnet sich eine riesige Palette von neuen
Möglichkeiten: Der Uhrenträger kann „geortet“ werden. Beispielsweise können
Kinosäle mit kleinen Sendern ausgerüstet werden, die einen Code aussenden, der
von der Uhr aufgefangen wird. So kann festgestellt werden, wie Kinos genutzt
werden – die Radio- und TV-Nutzung wird single source mit der Kinoforschung
verbunden. Bei längeren Tragezeiten der Uhr lohnt sich auch das Ausrüsten der
Panelisten mit kleinen Sendern, um passiv die Nutzungsorte „zu Hause“, „im
Auto“ oder „an der Arbeit“ zu erfassen. Die Technologie erlaubt gar, Plakatstellen mit Signalgebern auszustatten und so die Plakatforschung mit dem
gleichen Instrument umzusetzen. Weiter wird es möglich sein, die Radionutzung mit Kopfhörer zu erfassen: Zwischen Walkman und Kopfhörer wird ein
kleiner Sender gesteckt, der die Audiodaten abgreift und per Funk an die Uhr
übermittelt.
Natürlich eröffnen sich dadurch mannigfaltige Möglichkeiten, die hier nur mit
einem einzigen Beispiel angedeutet werden: Teilnehmer in einem Konsumpanel
werden mit der Uhr ausgerüstet, einige große Warenhausketten installieren RFSender über dem Eingang zu den Läden ...
Leseverhalten kann erfasst werden
Beim dritten Erweiterungsschritt geht es um die Nutzung der Printmedien, wobei
wir hier auf die Kooperation des Uhrenträgers angewiesen sind. Durch einfachen
Knopfdruck erscheint auf dem Display der Uhr eine Liste der Zeitungs- oder
Zeitschriftentitel, geordnet nach Präferenzen des Trägers und Region. Natürlich
werden die Titel am Kopf der Liste at random präsentiert. Durch die Liste kann
mittels Touchscreen gescrollt werden, der aktuell gelesene Titel ausgewählt und
bestätigt. Je nach Wunsch des Systemkäufers kann diese Erhebung einer einfachen Reichweite ergänzt werden durch Angaben zur Lesedauer oder weiteren
Angaben wie z.B. die Identifikation des Bundes innerhalb der Zeitung.
Damit steht mit der nächsten Generation der Radiocontrol-Uhr erstmals ein Messinstrument zur Verfügung, das gleichzeitig die Nutzung von Radio, TV, Kino,
Plakat und Printmedien erfassen kann: Mediawatch – eine ganz einfache Armbanduhr.
57
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Professor Dr. Matthias Steinmann
Matthias Steinmann ist eine der Leitfiguren der
internationalen Mediaforschung. Ihm verdankt die
Mediawelt das international anerkannte Modell der
Fernsehforschung, das in Deutschland ebenso wie
in der Schweiz und in Österreich eingesetzt wird,
das Radiocontrol-System und seit neuestem die
Mediawatch, die einen Quantensprung in der Mediaforschung verheißt.
Geboren wurde Steinmann 1942 in Köniz im
Kanton Bern. Studium der Wirtschafts- und Sozialwissenschaften an der Universität Bern, 1969 Dissertation „Radiowerbung in der Schweiz? – Eine
empirische Analyse über das Radio in der Schweiz
als Werbungsalternative“, 1970 Habilitation „Massenmedien und Werbung“, ab 1970 Privatdozent,
ab 1974 Lehrbeauftragter für Kommunikationsforschung unter besonderer Berücksichtigung
der elektronischen Medien an der Universität
Bern. 1984 Ernennung zum Honorarprofessor,
1989 nebenamtlicher außerordentlicher Professor.
Langjährige Praxis in der schweizerischen Journalistik und Werbewirtschaft. Von 1968 bis 1972
Vizedirektor bei der AG für das Werbefernsehen
und Leiter der Abteilung „Zuschauerforschung“,
seit 1973 Delegierter für Publikumsforschung bzw.
seit 1986 für Medienforschung bei der Schweizerischen Radio- und Fernsehgesellschaft und damit für
die Forschungsbelange der SRG SSR idée suisse
verantwortlich. Von 1973 bis 1978 Medienberater
beim Südwestfunk Baden-Baden, verschiedene
Mandate als Kommunikations- und Marketingberater in der Schweiz, Europa und Übersee. Leiter der
Beratungsfirma Berakom. Delegierter VR Publica
Data AG.
Zahlreiche Publikationen als Delegierter für
Medienforschung beim SRG SSR Forschungsdienst. Unternehmer und Initiator von Telecontrol
und Radiocontrol. Mit dem Radiocontrol-System
Gewinner des Preises „Technologiestandort
Schweiz“ und SRG SSR Prix Innovateur.
Ende Mai 2004 trat Matthias Steinmann als Leiter
des SRG SSR Forschungsdienstes in den Ruhestand. Sein Nachfolger ist Manuel Dähler.
58
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Manuel Dähler
Seit Juni 2004 ist Manuel Dähler als Nachfolger
von Matthias Steinmann Leiter Forschungsdienst der
SRG SSR idée suisse. Bis dahin hatte er die Radioforschung der SRG geleitet.
Dähler wurde am 27. Februar 1959 geboren. Er studierte Sozial-, Jugendpsychologie und Psychopathologie an der Universität Bern, Abschluss lic. phil.
hist. 1991: Assistent am Lehrstuhl für Sozialpsychologie der Universität Bern, 1994: Dozent und Forscher am Schweizerischen Institut für Berufsbildung
in Zollikofen, seit 1997 Studienleiter Radioforschung
beim Forschungsdienst der SRG SSR idée suisse.
Wichtigstes Projekt: Testen und Einführen von
Radiocontrol (weitere: Ausbau Musikforschung,
Interessentypologie der Radiohörer, Aufstockung
Radiocontrol-Stichprobe). Dähler arbeitet an einer
Doktorarbeit zur „Umstellung von der Interviewbefragung auf die Radiocontrolmessung in der
Schweiz“ an der Uni Bern.
59
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Warum die Radioforschung in Österreich ihr
Befragungsmodell präferiert
Von Petra Golja, Doris Ragetté und Sigrid Svitek
An einem durchschnittlichen Tag hört der Österreicher rund 3,5 Stunden Radio,
sieht mehr als 2,5 Stunden fern, liest eine halbe Stunde Tageszeitung und verbringt etwa 25 Minuten im Internet. An diesen Daten, aber auch im Vergleich zu
anderen westeuropäischen Ländern, wird die Wichtigkeit von Radio im Leben
der Österreicher deutlich. Der share of market, also der Werbeausgabenanteil,
von Radio beträgt in Österreich rund 8 Prozent1 und liegt somit deutlich über den
Radioanteilen am Gesamtwerbemarkt anderer europäischer Länder.
Dieser sowohl im Hörer- als auch im Werbemarkt hohe Stellenwert des Radios
bedeutet auch, dass in Österreich auf die Qualität der Radio-Reichweitenforschung besonderer Wert gelegt wird.
1. Zur Geschichte der Radioforschung in Österreich
Historisch interessant ist, dass die Radioforschung in Österreich auf eine sehr
lange Tradition zurückblicken kann. Am 1. Oktober 1924 nahm die RAVAG
(Radio-Verkehrs AG, der Vorläufer des heutigen öffentlich-rechtlichen Rundfunks ORF) ihren Sendebetrieb auf 2. Schon im selben Jahr gab es in der
neu gegründeten Zeitschrift „Radiowelt“ einen Fragebogen zur Erhebung der
Hörerwünsche („Was wünschen Sie zu hören? Programmgestaltung durch Volksentscheid!“)3.
Bahnbrechend für die Markt- und somit Radioforschung in Österreich war
die 1932 publizierte „Wiener RAVAG-Studie“ von Paul Lazarsfeld3. Erstmals
wurde das Nutzungsverhalten des damals noch relativ jungen Mediums Radio
im Rahmen einer schriftlichen Befragung erhoben. Lazarsfeld wertete die
unglaubliche Zahl von 110 312 zurückgesandten Fragebögen hinsichtlich der
Nutzungszeiten des damals noch auf wenige Stunden begrenzten Radioprogramms, der Programmpräferenzen sowie der bevorzugten Musikgattungen aus
1
Media Focus Research, „Buch der Werbung 2002“, Gesamtwerbeausgaben exkl. Kino, klassischer
Prospekt und Online-Werbung
2
Geschichte des ORF: http://mediaresearch.orf.at/chronik.htm sowie Sonderausstellung auf der
Schallaburg: „100 Jahre Radio“ in Niederösterreich vom 8. Juni bis 27. Oktober 2002
3
Desmond Mark (Hg.): Paul Lazarsfeld Wiener RAVAG-Studie 1932, Musik und Gesellschaft Bd.
24, 1996
61
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
und verknüpfte diese Informationen erstmals mit einer Reihe soziodemografischer Daten. Zum ersten Mal wusste man nicht nur, wie viele Personen insgesamt Radio hören und welches Musikgenre den mehrheitlichen Geschmack
trifft, sondern es konnten auch soziodemografische Unterschiede – wie z. B.
nach Geschlecht, Alter und Berufszugehörigkeit getrennt – im Hörverhalten festgestellt und in der Programmgestaltung darauf Rücksicht genommen werden.
Diese für das gesamte Europa der 1930er-Jahre einzigartige Studie galt über
viele Jahre als Grundlage für die Hörfunkforschung in Österreich.
In den vom Wirtschaftsaufschwung gekennzeichneten 1950er- bis Mitte der
1960er-Jahre wurde keine konsequente, kontinuierliche Hörfunkforschung betrieben, es gab einige Ad-hoc-Untersuchungen im Auftrag des öffentlich-rechtlichen
Rundfunks, die größtenteils auf schriftlichen Tagebuchstudien basierten. 1965
wurde erstmals die Allmedien-Untersuchung „Media-Analyse“ durchgeführt,
die sich 1970 endgültig als allgemein anerkanntes Standardinstrument der
Medienforschung etablierte. Die Media-Analyse deckte alle Mediengattungen
(Print, Radio, Fernsehen) ab, und die Erhebung der Radionutzung war ein fixer
Bestandteil des Fragebogens. Mittels Face-to-Face-Interviews wurde im Radioteil vor allem der gestrige Tagesablauf nach Viertelstunden in Bezug auf das
Hörverhalten sowie die Regelmäßigkeit der Sendernutzung erhoben.
Diese Daten konnten nicht nur nach soziodemografischen, sondern auch nach
einer Fülle an zusätzlichen Zielgruppenkriterien – wie z. B. Informationsinteressen, Besitzdaten, Anschaffungspläne und Freizeitverhalten – analysiert werden.
Dies ermöglichte nun, dass einerseits auf die Bedürfnisse der Agenturen und
Werbung treibenden Wirtschaft insofern stärker Rücksicht genommen wurde, als
Radio zielgruppengenau evaluierbar wurde und sich das Medium Radio neben
dem aufstrebenden Werbekanal Fernsehen behaupten konnte. Andererseits konnten die für das Radioprogramm Verantwortlichen diese Daten zur optimalen
Programmgestaltung nutzen. Die Radionutzungsdaten gaben Aufschluss über
die Ein-, Ab- und Umschaltzeiten im Radio sowie die Struktur der Hörerschaft
im Tagesverlauf. Die Daten waren somit eine wichtige Richtschnur für das
Publikumsverhalten und ein wertvoller Input für die Verantwortlichen, um Programmentscheidungen auch anhand quantitativer Untersuchungsdaten evaluieren zu können.
Lange Zeit erfüllte das Modell der Media-Analyse – sie wurde als Verein
geführt, in dem alle wesentlichen Medienvertreter sowie eine Vielzahl an Agenturen als Mitglieder vertreten waren – alle Anforderungen. Mit den Jahren und
dem steigenden Medienangebot konnte die Media-Analyse den spezifischeren
Bedürfnissen der Medienanbieter – nicht zuletzt durch den nur zweijährigen
Erhebungsrhythmus – nicht mehr voll Genüge tun.
62
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
1982 wurde neben der Media-Analyse ein weiteres Allmedien-Instrument etabliert: die Optima. Die Optima, vom ORF und Printmedien finanziert, wurde –
im Gegensatz zur Media-Analyse, die alle zwei Jahre erhoben und veröffentlicht
wurde – jährlich durchgeführt und bot damit ein deutlich aktuelleres Abbild des
Mediennutzungsverhaltens als die Media-Analyse. Die Interviews der Optima,
die in der gesamten methodischen Anlage und im Fragebogenaufbau der MediaAnalyse sehr ähnlich war, wurden ebenfalls Face-to-Face durchgeführt. Anfangs
umfasste die Optima pro Jahr 12 000 Interviews in der Grundgesamtheit 14+. Um
der wachsenden Bedeutung regionaler Daten sowie dem Wunsch nach detaillierteren Analysen gerecht zu werden, aber auch wegen der bevorstehenden
Einführung privaten Rundfunks in Österreich, der nicht national, sondern nur
regional starten sollte, stockte man zuletzt auf insgesamt 18 000 Interviews auf.
So konnte für jedes Bundesland eine genügend hohe Fallzahl – auch zur genaueren Hörerschaftsanalyse – generiert werden.
Anfang der 1990er-Jahre zeichnete sich ab, dass „Allmedienstudien“ mit Faceto-Face-Befragungstechnik den zu erwartenden Veränderungen der Medienlandschaft (eine duale Rundfunkordnung sollte noch in diesem Jahrzehnt auch in
Österreich gesetzlich etabliert werden), deren wesentlichstes Kennzeichen eine
vergrößerte Angebotspalette war, nicht mehr genügen konnten. Die Optima
wurde 1993 eingestellt, die Media-Analyse wurde ab diesem Jahr jährlich auf
Basis einer größeren Stichprobe durchgeführt. Mit dem weiter steigenden Medienangebot zur selben Zeit war nicht nur der Fragebogenumfang der Media-Analyse beträchtlich, sondern auch die Methode der Face-to-Face-Befragung wurde
nicht mehr allen Medienkategorien gerecht. 1991 wurde mit dem Teletest die
elektronische Messung des Fernsehens eingeführt, 1993 wurde für das Radio ein
eigenes Instrument – der Radiotest – etabliert, die Media-Analyse konzentrierte
sich auf die Printmedien. So entwickelte sich für jede der drei Mediengattungen
Fernsehen, Radio und Print eine Spezialstudie, die den Anforderungen des jeweiligen Medientypus besser gerecht wird.
2. Der Radiotest – die Leitwährung der Radioplanung in Österreich
Der Radiotest bedeutete einen Umstieg von Face-to-Face- auf telefonische Interviews. Diese Änderung erfolgte erst nach umfassenden Pretests, in denen telefonische und Face-to-Face-Studien als Paralleluntersuchungen verglichen wurden.
1993 startete der Radiotest als Spezialstudie zur detaillierten Erhebung der Radionutzung. Damals war der ORF mit insgesamt zwölf Radiostationen (drei natio63
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
nale und neun regionale Sender) alleiniger Auftraggeber dieser Studie und stellte
die Ergebnisse den Mediaagenturen und Programmplanern zur Verfügung. Insgesamt wurden im Jahr 24 000 telefonische Interviews durchgeführt, wobei die
Telefoninterviews damals noch auf der klassischen Paper-and-Pencil-Methode
beruhten. 1995 erfolgte der Umstieg auf CATI (Computer Assisted Telephone
Interview), und Österreich war damit neben Belgien, Frankreich, Italien, Portugal und Schweden eines der ersten Länder in Europa, die die Vorteile von CATI
nutzten4.
Ein weiterer innovativer Schritt wurde 1995 durch die Fusion des Radiotests mit
der Media-Analyse gesetzt. Die im Rahmen der 24 000 Telefoninterviews des
Radiotests erhobenen Werbezeiten wurden in die damals rund 16 000 Interviews
der Media-Analyse fusioniert. Dies ermöglichte den Mediaplanern, die Vielzahl
der Zielgruppenkriterien aus der Media-Analyse auch für die Radioplanung zu
nutzen sowie einen Intermediavergleich anzustellen. Der Radiotest mit seinen
gesamten Informationen und mit seiner deutlich höheren Fallzahl als die MediaAnalyse stand für radiospezifische Auswertungen aber auch weiterhin als SingleSource-Studie zur Verfügung.
1995 war auch in anderer Hinsicht ein für die Radioforschung interessantes Jahr:
Zwei Privatradios konnten in Österreich on air gehen. Am 22. September 1995
nahm die Antenne Steiermark ihren Sendebetrieb auf, nur einen Monat später
sendete auch Radio Melody (heute: Antenne Salzburg). Der Radiotest erwies
sich als flexibles Instrument und konnte vom Sendestart der beiden Privatsender
an auf die neue Radiomarktsituation reagieren. Durch die hohe Fallzahl und den
nach Bundesländern disproportionalen Stichprobenansatz war eine Erhebung
dieser beiden Sender sofort möglich.
Im April 1998 konnten weitere Privatradios flächendeckend in Österreich starten,
heute sind neben den 12 ORF-Radios weitere rund 60 regionale bzw. lokale Privatradios auf Sendung, die im Radiotest erhoben werden. Die Auftragsvergabe
erfolgt heute durch den ORF und den Großteil der Privatradios gemeinsam.
3. Radiotest – Die Methode
Die Methode des Radiotests hat sich seit seiner Einführung bewährt und wurde
in ihrer Grundkonzeption nicht verändert. Der zurzeit aktuelle Radiotest basiert
auf folgenden methodischen Bedingungen, auf die weiter unten im Detail eingegangen wird.
4
ESOMAR: Report on Radio Audience Measurement in Europe 1997; Technique of Measurement
and Task Length
64
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Methodenüberblick – Radiotest 2002
Grundgesamtheit:
Sampling-Methode:
Befragungsgebiet:
Feldzeit:
Art der Befragung:
Adressenquelle:
Gewichtung:
Erreichte Interviews:
Tabellenbasis:
Interviewdauer:
Ausschöpfung:
Durchführendes Institut:
Auftraggeber:
Personen ab 10 Jahre
Adressen-Zufallsauswahl
Gesamt-Österreich, alle Bundesländer
Januar – Dezember, tagesgleichverteilte
Interviews
telefonisch, CATI
Herold Business Data + ergänzendes
Booster-Sample
Faktorengewichtung
24 000 Basis-Interviews
28 183 inkl. Aufstockungen für lokale
Verbreitungsgebiete
24 000 Interviews ab 10 Jahre
20 Minuten
81%
Fessel-GfK
ORF und Privatradios
3.1. Grundgesamtheit
Der Radiotest befragt Personen in privaten Haushalten ab zehn Jahre, nach oben
gibt es keine Altersbegrenzung. Damit zählt Österreich zu den wenigen Ländern
Europas, die das Hörverhalten auch von sehr jungen Zielgruppen abbilden können5.
Die Basis für die Hochrechnung („Projektion in 1000“) liefert der jeweils aktuelle Mikrozensus der Statistik Austria. Für den Radiotest 2002 werden die Daten
des Mikrozensus 2001 herangezogen. Die Grundgesamtheit der österreichischen
Gesamtbevölkerung ab 10 Jahre umfasst aktuell 7 125 000 Personen.
3.2. Sampling und Stichprobenbildung
3.2.1. Das 461-Zellen-Modell
Für die Stichprobe des Radiotests wird ein Multistage Stratified Simple Address
Random System angewandt. Die Stichprobe ist als Jahressample konzipiert, welches dann auf die einzelnen Befragungseinheiten aufgeteilt wird, und erlaubt
durch die große Zahl von 24 000 Interviews eine wesentlich weiter reichende
Schichtung als bei geringeren Fallzahlen.
5
ESOMAR: Report on Radio Audience Measurement in Europe 1997; Age and Sociodemographic
Requirements
65
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Im ersten Schichtungsschritt wird die Bevölkerung 10 Jahre und älter in die neun
Bundesländer aufgeteilt. Auf Basis der Bundesländer wird die Disproportionalität
festgelegt, um auch für regionale Analysen entsprechende Fallzahlen zur
Verfügung zu haben.
Im zweiten Schichtungsschritt wird nun jedes Bundesland proportional in die
Politischen Bezirke zerteilt.
Im dritten Schichtungsschritt wird jeder Politische Bezirk wiederum proportional zur Zahl der Einwohner in neun Ortsgrößenklassen zerlegt, wobei alle
Gemeinden gleicher Ortsgröße des jeweiligen Politischen Bezirks in einer statistischen Zelle zusammengefasst werden. Dabei kommt folgendes Schema zur
Anwendung:
OG 1
OG 2
OG 3
OG 4
OG 5
OG 6
OG 7
OG 8
OG 9
bis 999 Einwohner
1000 1999 Einwohner
2000 2999 Einwohner
3000 4999 Einwohner
5000 9999 Einwohner
10 000 19 999 Einwohner
20 000 40 999 Einwohner
50 000 unter 1 Mio. Einwohner
1 Mio. Einwohner und mehr
Bei dieser Bildung der Befragungseinheiten (primary sampling units) ergeben
sich nun 461 statistische Zellen, da in keinem der Politischen Bezirke alle neun
Ortsgrößenklassen vorhanden sind. Nachfolgende Tabelle zeigt im Cross-Count
Bundesland x Ortsgröße, in wie vielen Politischen Bezirken Gemeinden dieser
Ortsgrößen vorhanden sind.
66
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Am Beispiel Niederösterreich (NÖ) ist zu erkennen, dass es in den 25 Politischen
Bezirken Niederösterreichs in 21 Bezirken Gemeinden der Ortsgrößenklasse 1
(bis 999 Einwohner), aber nur in 10 Bezirken Gemeinden der Ortsgrößenklasse 6
(10 000 – 19 999 Einwohner) gibt. NÖ wurde insgesamt in 116 statistische Zellen
zerlegt.
Im nächsten Schritt werden nun die Adressen der Herold Business Data und jene
des Selected Sample Boost (siehe unten) den 461 Zellen zugeteilt. Innerhalb
der einzelnen Zellen können nun die benötigten Adressen nach der Simple-Random-Methode gezogen werden. Durch diese Vorgangsweise haben alle Adressen
einer Zelle die gleiche Chance, in die Stichprobe aufgenommen zu werden. Die
breitestmögliche Abdeckung aller Gemeinden ist somit gewährleistet.
Die Sollzahlen der Stichprobe werden nun unter Beachtung der Repräsentativität
auf die vier Quartale aufgeteilt, die Ziehung der Adressen selbst erfolgt quartalsweise.
Im nächsten Schritt werden die Quartalsadressen wieder unter Berücksichtigung
der Repräsentativität auf die Monate, Wochen und zuletzt auf die Wochentage
Montag bis Sonntag aufgeteilt.
3.2.2. Selected Sample Boost
Aus unterschiedlichen repräsentativen Umfragen ist ersichtlich, dass der Anteil
jener Personen, die ausschließlich über Handy telefonieren und nicht über einen
Festnetz-Anschluss verfügen, deutlich wächst. Zumeist sind diese Handy-Nummern auch nicht im Amtlichen Telefonbuch eingetragen, sie wären somit für
Telefonumfragen ausgeschlossen. Aktuell beträgt der Anteil der „Nur-HandyBesitzer“ rund 13 Prozent – es sind vor allem junge Personen im Alter zwischen 20 und 39 Jahren, großteils berufstätig und mobil. Zusätzlich zu den
Handy-Besitzern, die nicht im Amtlichen Telefonbuch eingetragen sind, gibt es
auch so genannte „Geheimnummern“, die ebenfalls in keinem Telefon-Sample
berücksichtigt werden können. Insgesamt besitzen 99 Prozent ein Telefon, 18
Prozent der Bevölkerung sind nicht im Telefonbuch eingetragen.
67
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Um aber auch diese Gruppe der 18 Prozent im Sample berücksichtigen zu können,
hat das durchführende Institut Fessel-GfK eine innovative Lösung gefunden: das
Selected Sample Boost. Fessel-GfK führt pro Jahr 30 000 repräsentative Faceto-Face-Interviews sowie 20 000 repräsentative schriftliche Interviews durch. In
allen diesen Untersuchungen wird festgestellt, ob die befragte Person über ein
Telefon bzw. Handy verfügt sowie ob die entsprechende Nummer im Telefonbuch eingetragen ist. Jenen Telefonbesitzern, die nicht im Telefonbuch erfasst
sind, wird die Frage nach der Bereitschaft, an Telefonumfragen teilzunehmen,
gestellt. Dadurch wird die Adresse mit der genauen Zuordnung der Gemeinde und
Ortsgrößenklassifizierung erfasst. Diese daraus generierten Adressen werden in
die Sample-Basis integriert, wodurch eine repräsentative Random-Stichprobenziehung möglich gemacht wird. Das System des Selected Sample Boost vermeidet – im Gegensatz zum Random Digit Dialing, der randomisierten Erstellung
von Telefonnummern – einerseits die hohe Verweigerungsrate bei den Geheimnummern-Besitzern und andererseits mögliche Konflikte mit dem Datenschutz.
3.2.3. Zielpersonenauswahl im Haushalt
Um in einem angerufenen Haushalt die richtige Zielperson ab 10 Jahre auswählen
zu können, wird die so genannte Geburtstagsmethode angewendet. Hierzu
werden zunächst alle im Haushalt lebenden Personen nach Alterskategorien
erfasst. Danach wird ermittelt, welche Person in diesem Haushalt, die zehn
Jahre oder älter ist, zuletzt Geburtstag hatte – diese Person ist in weiterer
Folge der Respondent für das gesamte Radiotest-Interview. Diese Geburtstagsmethode beruht auf einem Zufallsprinzip und gewährleistet damit zusätzlich die
Repräsentativität der Stichprobe.
68
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Fragebogen-Ausschnitt zur Ermittlung der Zielperson ab zehn Jahre
im per Zufall ausgewählten Haushalt6
FESSEL - GfK - INSTITUT
Auftr. Nr.:
Listen - Nr.
Adr. Nr.
Interviewer - Nr.
2003/130.461
Anmerkung zum Fragebogen:
Der Radiotest wird mittels CATI (Computer Assisted Telefon Interviews) durchgeführt. Das heißt der Fragebogen wird für den PC
programmiert. Der Papierausdruck dieses programmierten Fragebogens ist aufgrund von diversen Zeichen nicht "lesbar". Vorliegender
Fragebogen ist eine "paper pencil" - Version, der zwar komplett dem CATI - Fragebogen folgt, aber bestimmte EDV - automatische
Prozesse (wie z. B. Rotationen oder die Tatsache, dass bei CATI Datum oder Wochentag automatisch aufscheinen und nicht vom
Interviewer eingetragen werden müssen) nicht aufzeigen kann.
Nr.
FRAGE
GESTERN WAR:
A.
Guten Tag, hier spricht
Institut.
..........
................................
B.
Wochentag . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datum
vom FESSEL-GfK-
Wir machen eine Umfrage über das Radiohören.
Damit ich feststellen kann, mit wem ich sprechen
muss, bitte ich Sie, mir aufzuzählen, aus wie vielen
Personen Ihr Haushalt besteht. Wie viele
Haushaltsmitglieder sind ..........?
** INT.:
weiter
mit
Frage
ANTWORT
VORLESEN! **
Sagen Sie mir bitte, welche Person in Ihrem
Haushalt, die 10 Jahre und älter ist, hat als letzte
Geburtstag gehabt!
Anzahl
a - 14 Jahre und älter
.........................
b - 10 bis unter 14 Jahre
.........................
c - 6 bis unter 10 Jahre
.........................
d - 2 bis unter 6 Jahre
.........................
e - unter 2 Jahre
.........................
insgesamt
.........................
B
MIT PERSON, DIE ZULETZT GEBURTSTAG GEHABT HAT, IST
DAS INTERVIEW DURCHZUFÜHREN!
Alter: ............
Geschlecht:
männlich
weiblich
1
2
1
3.3. Befragungsgebiet
Die Interviews für den Radiotest werden im gesamten österreichischen Bundesgebiet durchgeführt. Um aber auch für jene Radiosender, die nur ein Bundesland abdecken, valide Daten mit einer möglichst geringen Schwankungsbreite zu
generieren, ist es notwendig, die Basisstichprobe von 24 000 Interviews nach den
Bundesländern disproportional anzulegen. Innerhalb der Bundesländer werden
die Interviews proportional nach den politischen Bezirken sowie Ortsgrößen aufgeteilt.
6
Dieser Fragebogen-Ausschnitt ist ausschließlich für die gedruckten Berichte erstellt worden, der
Original-Fragebogen ist für das CATI-System programmiert.
69
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Neben den nationalen und regionalen Sendern gibt es eine Reihe lokaler Privatradios, die auf Grund ihrer Sendefrequenz kein gesamtes Bundesland abdekken, sondern nur einige Politische Bezirke eines Bundeslandes. Um auch diese
lokalen Radiostationen im Radiotest abzubilden, müssen diese Lokalsender in
ihrem definierten Sendegebiet im Jahr zumindest 600 Interviews generieren. Die
Schwankungsbreite bei 600 Interviews liegt zwischen ± 1,1 und 4,0 Prozentpunkten. Eine detaillierte Hörerschaftsanalyse dieser Sender ist daher schwer
möglich, dennoch erlaubt die Fallzahl von zumindest 600 Interviews im Jahr
eine Reichweitenanalyse nach relevanten soziodemografischen Merkmalen. Auf
Grund der notwendigen Aufstockungen der Interviews in den verschiedenen
lokalen Verbreitungsgebieten einiger privater Radiosender basiert der Radiotest
2002 auf insgesamt 28 183 Fällen. Die Basisstichprobe jedoch umfasst ohne
lokale Aufstockungen 24 000 Interviews.
3.4. Feldzeit
Im Gegensatz zu anderen europäischen Ländern, unter anderem auch Deutschland, die pro Jahr nur einige Erhebungswellen durchführen, werden die Interviews des Radiotests auf alle Monate des Jahres gleichmäßig aufgeteilt. So
können saisonal bedingte Unterschiede des Hörverhaltens sowie aktuelle Tagesgeschehnisse die Ergebnisse nicht atypisch beeinflussen. Ein Beispiel: Wer hat
nicht alle Medienkanäle am 11. September 2001 und danach intensiver als sonst
genutzt? Aber nicht nur solche dramatischen Weltereignisse können zu einem
außergewöhnlichen Mediennutzungsverhalten führen, sondern ebenso auch positive Ereignisse: Nahezu die gesamte österreichische Nation hat die sensationellen Comeback-Skirennen unseres Super-Skistars Hermann Maier nach seinem
Unfall mitverfolgt!
Wenn eine Befragung nicht gerade zu solchen Ereignissen stattfindet, ergäbe
dies ein zu niedrig gemessenes Hörverhalten. Und umgekehrt: Würde die
70
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Befragung zu Zeiten solch besonderer Ereignisse stattfinden, ergäbe dies ein
überproportional intensives Hörverhalten im Jahresdurchschnitt.
Ebenso wichtig – neben der Monatsaufteilung der Interviews – ist auch die
gleichmäßige Aufteilung der Interviews auf die einzelnen Tage einer Woche (siehe
unten stehende Tabelle), um ein möglichst reales Abbild der Hörgewohnheiten
zu erhalten. Radiosender senden 24 Stunden an sieben Tagen die Woche ihr Programm. Es ist also notwendig, eventuelle Unterschiede der Programmnutzung
eines Senders im Wochentagsverlauf darstellen zu können.
Tagesreichweiten „Radio gesamt“ nach Wochentagen in Prozent –
Personen ab zehn Jahre im Radiotest 20027
7
Radiotest 2002, Januar–Dezember 2002, Tagesreichweiten in Prozent, Radio gesamt, Bevölkerung
10+
71
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
3.5. Art der Befragung
Der Radiotest wird mittels telefonischer CATI-Interviews durchgeführt. Die
Vorteile einer computerunterstützten Erhebung sind hinlänglich bekannt. Die
entscheidenden Vorteile sind einerseits beim Fragebogen die Möglichkeit der
automatischen Filterführung im Fragebogen, die Rotationsmöglichkeiten von
Items, das Vermeiden von Codierungsfehlern sowie die Schnelligkeit der
Datenverfügbarkeit und andererseits die computergesteuerte Organisation der
Feldarbeit, wie automatisches Anwählen der at random gezogenen Telefonnummern, Adress- und Terminverwaltung. Mögliche Interviewerbeeinflussungen
werden auf diese Weise nahezu ausgeschlossen.
3.6. Gewichtung
Die Gewichtung der Stichprobe erfolgt nach dem jeweils aktuellen Mikrozensus der Statistik Austria. Für den Radiotest 2002 wurde der Mikrozensus 2001
als Gewichtungsunterlage herangezogen. Die Zielsetzung der Gewichtung ist es,
einerseits die Disproportionalität nach Bundesländern und lokalen Verbreitungsgebieten aufzulösen sowie andererseits die repräsentativ gezogene Stichprobe an
die realen soziodemografischen Strukturen optimal anzugleichen. Die Gewichtungsvorgaben sind:
Die ungewichtete Struktur der Stichprobe ist der nach dem Mikrozensus gewichteten Stichprobe in den relevanten Soziodemografie-Merkmalen fast deckungsgleich.
72
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Struktur der Stichprobe in Prozent – Personen ab zehn Jahre im
Radiotest 20028
3.7. Ausschöpfung
Wie in allen quantitativen Großstudien der Medienforschung ist eine hohe
Ausschöpfung notwendige Voraussetzung, um valide Ergebnisse zu erzielen. Die
Mindest-Ausschöpfungsquote im Radiotest liegt daher bei 80 Prozent. Im Durchschnitt wird eine Adresse acht Mal kontaktiert, die maximale Kontaktanzahl liegt
bei rund 25 Versuchen. Diese hohe Kontaktzahl kann bei Telefoninterviews, speziell beim Radiotest, der eine längere Feldzeit aufweist als „Blitzumfragen“, im
Vergleich zu Face-to-Face-Interviews kostengünstig erreicht werden.
8
Radiotest 2002, Januar–Dezember 2002, ungewichtete versus gewichtete Stichproben-Struktur,
Angaben in Prozent
73
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
4. Radiotest – Das Interview
Der Fragebogen des Radiotests ist nach folgendem Ablaufschema aufgebaut:
Der Fragebogen – Radiotest 2002
• Zielpersonen-Auswahl
• Erhebung der Namensbekanntheit der Radiosender
• Gestützte Frage, die Namen der Radiosender werden vorgelesen.
• Die Reihenfolge der Sendernamen ist randomisiert.
• Pro Bundesland werden nur die im Bundesland relevanten
Sender erhoben.
• Tagesablauf „gestern“
• Ungestützte Frage, die Namen der Radiosender werden nicht vorgegeben.
• Der gestrige Tag ist in Viertelstunden eingeteilt.
• Das Hörverhalten wird mit den Tätigkeiten des gestrigen Tages
verbunden, um die Erinnerungsleistung an das Radiohören
zu erleichtern.
• Bei der Angabe „Radio gehört“ wird sofort nach dem Sender
gefragt.
• Hörfrequenzen nach Zeitzonen
• Filterfrage = WHK = Weitester Hörerkreis = In den letzten
sieben Tagen den Sender gehört
• Feststellung der Regelmäßigkeit des Hörens
• Basis zur Berechnung der Kontaktwahrscheinlichkeiten (Segmentation)
• Spezielle Selektionskriterien
• Besitzdaten, Anschaffungspläne, Interessen, Aktivitäten
• Statistik / Soziodemografische Variable
4.1. Tagesablauf „gestern“
Die Reichweitenermittlung im Radiotest basiert auf der so genannten „RecallMethode“ – aus der ungestützten Erinnerung wird das Hörverhalten des gestrigen Tages abgerufen. Um die Erinnerungsleistung zu unterstützen, wird nach den
Tätigkeiten des gestrigen Tages gefragt. Aus Studien ist bekannt, dass man sich
an das Radiohören besser erinnern kann, wenn es mit den Tätigkeiten verknüpft
74
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
wird. Die Frage nach dem Tagesablauf beginnt mit der Frage: „Wann sind Sie
gestern aufgewacht?“.
Anschließend wird der gesamte Tagesablauf durchgegangen, indem nach den
Tätigkeiten gefragt und jeweils die Frage gestellt wird, ob man dabei auch
Radio gehört hat. Bejaht der Respondent, wird sofort nach dem gehörten Sender
gefragt, den er ungestützt nennen muss. Weiterhin wird der Aufenthaltsort im
Fragebogen vermerkt, um Unterschiede der Radionutzung nach „zu Hause“, „im
Auto“, „in der Arbeit/Schule/Uni“ und „unterwegs“ feststellen zu können.
Insgesamt mag diese Tagesablauf-Frage auf den ersten Blick sehr umfangreich
und kompliziert erscheinen, die Interviewer jedoch sind bestens eingeschult,
sodass diese Frage im „lockeren“ Gespräch durchgenommen wird. Es ist auch
anzumerken, dass die Abbruchrate bei dieser Frage fast bei null liegt, der Befragte
fühlt sich also von dieser Frage in keiner Weise gestört oder überfordert.
Die kleinste noch erfragbare Zeiteinheit ist die Viertelstunde. Es ist im Radiotest
nicht möglich, eventuell nur fünf gehörte Minuten innerhalb einer Viertelstunde
auch als solche einzutragen. Selbstverständlich sind aber Mehrfachnennungen
pro Viertelstunde möglich und zulässig. Jede genannte Viertelstunde wird zu 15
Minuten verrechnet, bei einer Mehrfachnennung innerhalb einer Viertelstunde
werden die 15 Minuten auf die entsprechend genannten Sender aufgeteilt.
75
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Fragebogen-Ausschnitt - Tagesablauf „gestern“6
Frage 2:
Ich möchte jetzt von Ihnen wissen, wann Sie gestern Radio gehört haben und welche Sender das waren?
Damit wir nichts vergessen, gehen wir am besten den ganzen gestrigen Tag durch. Gestern war ... (Wochentag nennen!)
Wann sind Sie gestern aufgewacht? Haben Sie da Radio gehört?
Was haben Sie dann gemacht?
Wie lange hat das gedauert?
Haben Sie während dieser Zeit Radio gehört?
Welcher Sender war das? Welche Sender waren das?
ZEIT
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
15.00
15.15
15.30
15.45
16.00
16.15
16.30
16.45
17.00
17.15
17.30
17.45
18.00
18.15
18.30
18.45
19.00
19.15
19.30
19.45
20.00
20.15
20.30
20.45
21.00
21.15
21.30
21.45
22.00
22.15
22.30
22.45
23.00
23.15
23.30
23.45
0.00
0.15
0.30
0.45
1.00
1.15
1.30
1.45
2.00
2.15
2.30
2.45
-
15.15
15.30
15.45
16.00
16.15
16.30
16.45
17.00
17.15
17.30
17.45
18.00
18.15
18.30
18.45
19.00
19.15
19.30
19.45
20.00
20.15
20.30
20.45
21.00
21.15
21.30
21.45
22.00
22.15
22.30
22.45
23.00
23.15
23.30
23.45
24.00
0.15
0.30
0.45
1.00
1.15
1.30
1.45
2.00
2.15
2.30
2.45
3.00
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
Sender
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
Radio gehört
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
A
Arbeit
Radio gehört
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
PKW
Arbeit
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
N
nicht zu Hause
PKW
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
RADIO
außer Haus
Fernsehen
nicht zu Hause
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
H
Sender
Fernsehen
3.00 - 3.15
3.15 - 3.30
3.30 - 3.45
3.45 - 4.00
4.00 - 4.15
4.15 - 4.30
4.30 - 4.45
4.45 - 5.00
5.00 - 5.15
5.15 - 5.30
5.30 - 5.45
5.45 - 6.00
6.00 - 6.15
6.15 - 6.30
6.30 - 6.45
6.45 - 7.00
7.00 - 7.15
7.15 - 7.30
7.30 - 7.45
7.45 - 8.00
8.00 - 8.15
8.15 - 8.30
8.30 - 8.45
8.45 - 9.00
9.00 - 9.15
9.15 - 9.30
9.30 - 9.45
9.45 - 10.00
10.00 - 10.15
10.15 - 10.30
10.30 - 10.45
10.45 - 11.00
11.00 - 11.15
11.15 - 11.30
11.30 - 11.45
11.45 - 12.00
12.00 - 12.15
12.15 - 12.30
12.30 - 12.45
12.45 - 13.00
13.00 - 13.15
13.15 - 13.30
13.30 - 13.45
13.45 - 14.00
14.00 - 14.15
14.15 - 14.30
14.30 - 14.45
14.45 - 15.00
TÄTIGKEIT
zu Hause
zu Hause
ZEIT
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
RADIO
außer Haus
zu Hause
TÄTIGKEIT
zu Hause
gestern nicht Radio gehört
6
Dieser Fragebogen-Ausschnitt ist ausschließlich für die gedruckten Berichte erstellt worden, der
Original-Fragebogen ist für das CATI-System programmiert.
76
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Aus der Tagesablauf-Frage lassen sich insgesamt vier Definitionen ableiten:
4.1.1. Tagesablauf „gestern“ – Tagesreichweite
Die Tagesreichweite umfasst Personen, die gestern zumindest eine Viertelstunde
lang Radio (bzw. einen bestimmten Sender) gehört haben. Dabei ist es unerheblich, wann und wie lange insgesamt Radio (bzw. ein bestimmter Sender) gehört
wurde.
Tagesreichweiten „Radio gesamt“ in Prozent – Personen ab zehn Jahre9
84,7
84,3
84,3
2000
2001
2002
82,2
79,4
78,8
1996
1997
78,0
78,5
75,9
Flächendeckender Start
der Privatradios in Ö
77,2
1993
1994
1995
1998
1999
Der hohe Stellenwert des Mediums Radio konnte trotz der Vielzahl neuer Medien
sogar noch ausgeweitet werden. So stieg die Tagesreichweite seit 1998, dem
flächendeckenden Start der Privatradios, noch weiter an und liegt seit 2001 auf
konstant hohem Niveau.
4.1.2. Tagesablauf „gestern“ – Hördauer
Die Hördauer gibt an, wie lange insgesamt Radio (bzw. ein bestimmter Sender)
an einem durchschnittlichen Tag gehört wird. Eine genannte Viertelstunde im
Tagesablauf wird als 15 Minuten verrechnet.
9
Radiotest, jeweils Januar–Dezember, Reichweiten in Prozent, Gesamt-Österreich, Bevölkerung
10+, Montag–Sonntag
77
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Hördauer „Radio gesamt“ in Minuten pro Tag – Personen ab zehn Jahre9
208
212
206
209
2001
2002
193
184
186
1996
1997
Flächendeckender Start
der Privatradios in Ö
173
169
160
1993
1994
1995
1998
1999
2000
Auch die steigende Hördauer spiegelt die kontinuierliche Bedeutung von Radio
im Leben der Österreicher wider.
Interessante Unterschiede in der Hörmenge zeigen sich in den einzelnen
Alterskategorien.
Hördauer „Radio gesamt“ in Minuten pro Tag nach Alter
im Radiotest 200210
249
240
227
239
209
179
119
Gesamt
10-19 Jahre
20-29 Jahre
30-39 Jahre
40-49 Jahre
50-59 Jahre
ab 60 Jahre
9
Radiotest, jeweils Januar–Dezember, Reichweiten in Prozent, Gesamt-Österrecih, Bevölkerung
10+, Montag–Sonntag
10
Radiotest 2002, Hördauer in Minuten, Gesamt-Österreich, Bevölkerung 10+, Montag–Sonntag
78
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
4.1.3. Tagesablauf „gestern“ – Marktanteil
Der Marktanteil eines Senders gibt an, wie groß der prozentuelle Anteil der
Hördauer eines bestimmten Senders an der gesamten Hördauer ist. Da im Radiotest eine genannte Viertelstunde immer zu 15 Minuten verrechnet wird und nicht
nach der tatsächlich genannten Hördauer innerhalb einer Viertelstunde, werden
die Marktanteile im Radiotest immer in gerundeten, ganzen Prozentzahlen ausgewiesen, um nicht eine Genauigkeit vorzutäuschen, die das Befragungsschema
des Tageablaufs nicht liefern kann.
Marktanteile in Prozent – Basis: Gesamt-Österreich im Radiotest 200211
Personen ab 10 Jahre
Personen, 14-49 Jahre
2%
2%
17%
21%
77%
81%
ORF
Privatradio gesamt
Ausländ. Sender
ORF
Privatradio gesamt
Ausländ. Sender
Die Marktanteile des ORF setzen sich aus den nationalen, in ganz Österreich ausstrahlenden Sendern Ö3, FM4 und dem werbefreien Kultursender Österreich 1
sowie den regionalen Sendern in den Bundesländern (z. B. Radio Wien, Radio
Niederösterreich etc.) zusammen. Die Marktanteile von Privatradio gesamt beziehen sich auf die Summe aller regionalen und lokalen Privatradios – es gibt
keinen national ausstrahlenden Privatsender. Im Bundesland Wien sind neben
den nationalen Sendern des ORF auch die regionalen Sender Radio Wien, Radio
Niederösterreich und Radio Burgenland sowie die Privatradios Kronehit, 88.6
Supermix, Antenne Wien, Radio Arabella, Radio Energy und Radio Stephansdom empfangbar. Die Marktanteile in der Bundeshauptstadt Wien unterscheiden
sich deutlich von Gesamt-Österreich:
11
Radiotest 2002, Marktanteile in Prozent, Montag–Sonntag
79
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Marktanteile in Prozent – Basis: Bundesland Wien im Radiotest 200211
Personen ab 10 Jahre
Personen, 14-49 Jahre
2%
2%
25%
30%
68%
73%
ORF
Privatradio gesamt
Ausländ. Sender
ORF
Privatradio gesamt
Ausländ. Sender
4.1.4. Tagesablauf „gestern“ – Viertelstunden
Die Viertelstunden können sowohl einzeln als auch als Durchschnitt über
bestimmte Zeitzonen ausgewiesen werden. Zur Berechnung der Durchschnitte
über bestimmte Zeitzonen wird in Österreich die jeweilige Durchschnitts-Viertelstunde als arithmetisches Mittel gebildet. Diese Durchschnitts-Viertelstunden
dienen in weiterer Folge den Sendern zur Tarifkalkulation. Um einen schnellen
Überblick über das Preis-Leistungs-Verhältnis eines Senders zu haben, wird die
Durchschnitts-Viertelstunde über die Zeitzone von 6.00 bis 18.00 Uhr auf Basis
„Projektion in 1000“ gebildet. Dieser Reichweitenwert wird mit dem Durchschnitttarif dieser Zeitzone eines Senders in Relation gesetzt (Formel = Ø-Tarif
in € : Ø-Viertelstunde in 1000).
Viertelstundenverläufe und Zeitzonen-Betrachtungen sind ebenso wesentliche
Informationen für die Programmgestaltung. So kann für jede Zeitzone, aber auch
Sendungen die Nettoreichweite ermittelt werden. Das heißt, es kann nicht nur
Auskunft über die pro Viertelstunde erreichte Hörerzahl gegeben werden, sondern auch die Gesamthörerschaft über eine definierte Zeitzone (z. B. die Morgenzone von 6.00 bis 9.00 Uhr) ermittelt werden. Das heißt, jede Person –
unabhängig davon, ob sie innerhalb der Zeitzone nur eine Viertelstunde (also
zwischen 7.00 und 7.15 Uhr) oder die gesamte Dauer (also zwischen 6.00 und 9.00
Uhr) durchgehört hat – wird nur einmal in die Gesamthörerschaft miteingerechnet. Anmerkung: Die Tagesreichweite ist übrigens die Nettoreichweite über alle
Viertelstunden des Tages. Viertelstundengenaue Hörerwanderungsströme (Zu-,
11
Radiotest 2002, Marktanteile in Prozent, Montag–Sonntag
80
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Ab- und Umschalter) liefern für die Programmplanung ebenfalls wertvolle Hinweise über Publikumsgewohnheiten und im weiteren Sinn Publikumspräferenzen,
denen in der Folge Rechnung getragen werden kann.
Viertelstunden „Radio gesamt“ im Tagesverlauf nach Wochentagen
in Prozent im Radiotest 200212
Der Tagesverlauf zeigt zwei Besonderheiten im Hörverhalten: Es gibt – vor
allem an Werktagen – eine besonders hohe Radionutzung in der Früh (7.00 bis
9.00 Uhr) sowie eine außergewöhnlich hohe Nutzung zur Mittagszeit (12.00
Uhr). Ab ca. 19.00 Uhr verflacht die Nutzungskurve. Eine so genannte „Drive
Time“ ist in Österreich nicht so stark ausgeprägt wie in anderen europäischen
Ländern.
Deutliche Unterschiede im Nutzungsverhalten ergeben sich auch nach den verschiedenen Aufenthaltsorten, an denen man Radio nutzt. Man lässt sich vom
Radio zu Hause wecken, schaltet das Radio vor allem am Vormittag bis in die
frühen Nachmittagsstunden am Arbeitsplatz ein und lässt sich im Auto von
diesem aktuellen Medium begleiten.
12
Radiotest 2002, Viertelstunden-Reichweiten in Prozent, Gesamt-Österreich, Bevölkerung 10+,
Montag–Sonntag
81
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Viertelstunden „Radio gesamt“ im Tagesverlauf nach Aufenthaltsort
in Prozent im Radiotest 200212
25,0
20,0
15,0
10,0
5,0
Zu Hause
im Auto
2.30 - 2.45
2.00 - 2.15
1.30 - 1.45
1.00 - 1.15
0.30 - 0.45
0.00 - 0.15
23.30 - 23.45
23.00 - 23.15
22.30 - 22.45
22.00 - 22.15
21.30 - 21.45
21.00 - 21.15
20.30 - 20.45
20.00 - 20.15
19.30 - 19.45
19.00 - 19.15
18.30 - 18.45
18.00 - 18.15
17.30 - 17.45
17.00 - 17.15
16.30 - 16.45
16.00 - 16.15
15.30 - 15.45
15.00 - 15.15
14.30 - 14.45
14.00 - 14.15
13.30 - 13.45
13.00 - 13.15
12.30 - 12.45
12.00 - 12.15
11.30 - 11.45
11.00 - 11.15
9.30 - 9.45
10.30 - 10.45
10.00 - 10.15
9.00 - 9.15
8.30 - 8.45
8.00 - 8.15
7.30 - 7.45
7.00 - 7.15
6.30 - 6.45
6.00 - 6.15
5.30 - 5.45
5.00 - 5.15
4.30 - 4.45
4.00 - 4.15
3.30 - 3.45
3.00 - 3.15
0,0
in der Arbeit
5. Zukunft der Radioforschung
Die lange, erfolgreiche Tradition der Radioforschung in Österreich basiert nicht
zuletzt darauf, dass die Veränderungen in der Medienlandschaft und die damit
einhergehende Forderung nach einer validen und reliablen Abbildung der Radionutzung kontinuierlich evaluiert werden. Der Radiotest ist das Ergebnis dieses
laufenden Reflexionsprozesses.
Aber selbstverständlich wird auch die Methodenentwicklung im Ausland mit
großer Aufmerksamkeit mitverfolgt, und diesbezügliche Innovationen werden
für den österreichischen Markt geprüft. Eine solche Methoden-Innovation, die
bereits seit einigen Jahren von internationalen Radioforschungsexperten diskutiert wird, ist das so genannte „Radiometer“. Das Prinzip dieser passiven, elektronischen Messung für Radio klingt für Programmmacher und Mediaplaner
bestechend: tägliche (minutengenaue) Daten (ähnlich den Telemetrieverfahren
beim Fernsehen) auch für das Radio. Nach jahrelanger Diskussion ist in der
Schweiz, als einzigem europäischen Land, dieses System nun für die Radioreichweitenmessung im Einsatz. Die Messung erfolgt über die Aufnahme der empfangenen Töne mittels eines Mikrofons, das in einer Armbanduhr eingebaut ist, die
vom Probanden getragen wird. Die Töne werden im Gerät digitalisiert und auf
12
Radiotest 2002, Viertelstunden-Reichweiten in Prozent, Gesamt-Österreich, Bevölkerung 10+,
Montag–Sonntag
82
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
einem Chip gespeichert. Die im Chip gespeicherten Daten werden anschließend
mit den in einer externen Datenzentrale erfassten Datenmuster der empfangbaren
Radiostationen verglichen und ausgewertet.
Der wesentliche Vorteil des Systems liegt in der minutengenauen elektronischen
Erhebung zur Abbildung der Radionutzung. Bei der methodischen Evaluierung
dieses Systems gibt es allerdings viele offene Fragen, die nicht nur technischer
Natur sind. So kann z. B. Radiohören mittels Kopfhörer nicht erfasst werden, und
so genannte Mantelprogramme, also Programmelemente, die über mehrere Frequenzen ausgestrahlt werden, können derzeit nicht eindeutig einem Sender zugeschrieben werden. Auch Untersuchungsbedingungen, wie die Repräsentativität
der Stichprobe, die Panelgröße, die Abdeckung regionaler und lokaler Verbreitungsgebiete, die Tragebereitschaft der „Uhr“ zu jeder Zeit sowie die Zuordnung
des Orts des Hörens, sind von Experten noch ausführlich zu diskutieren. Neben
solchen offenen Punkten spielen auch die erheblichen Mehrkosten gegenüber der
jetzigen Methode eine nicht unwesentliche Rolle.
Die Klärung all dieser Fragen wird noch einige Zeit (wenn nicht sogar Jahre) in
Anspruch nehmen und ist eine interessante und verantwortungsvolle Herausforderung, um die optimale Methode für die österreichische Radioforschung auch
in Zukunft gewährleisten zu können.
83
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Dr. Petra Golja, Mag. Sigrid Svitek, Doris Ragetté (von links nach rechts)
Doris Ragetté
1987 –1988 Kronen Zeitung, Assistenz der Marketingabteilung
1988 –1995 Fessel-GfK, Studienleiter in der Medienforschung
1995 – 1998 Trend-Profil-ORAC-Verlag, Leitung der Verlags-Marktforschung und
des Media-Service
seit Juli 1998 RMS – Radio Marketing Service, Leitung von Marktforschung und
Media-Service
Weitere Tätigkeiten
Lehrauftrag an der WerbeAkademie für Markt- und Mediaforschung am Wifi Wien
(seit 1997), Lehrauftrag für den Universitäts-Lehrgang „Markt- und Meinungsforschung“ (1998–2000), Lehrauftrag am Wifi Wien im Rahmen des MediaberaterLehrgangs (seit 2001), Vorstandsmitglied im Verein FMP / Forum Media-Planung
(seit 1996), Vorstandsmitglied im VMÖ / Verband der Marktforscher Österreichs
(2000–2002), Mitglied im Programmausschuss, dem Methodengremium des Vereins,
Arbeitsgemeinschaft Media-Analysen, Mitglied im Arbeitsgremium, dem Methodengremium des Radiotests, Forschungsbezogene Publikationen in Fachmedien.
Dr. Petra Golja
1981–1987 Fessel-GfK, Projektleiter im Bereich psychologische-qualitative Forschung, seit 1988 Fessel-GfK, Leitung der Abteilung „Medien ad hoc“-Forschung.
Studienschwerpunkte
Reichweitenforschung für Radio, Printmedien, Internet, Plakat, sonstige Medien;
Quantitative Medienuntersuchungen: Radiotest (seit 1993), Media-Analyse (seit
1993), Leseranalyse Entscheidungsträger (1989–1999, 2003), Regioprint (seit 1998),
AIR – Austrian Internet Radar (seit 2001), AIM – Austrian Internet Monitor (seit
1998), Optima (1980–1992), Kundenspezifische Ad-hoc-Studien, Desk Research und
Marktanalysen.
Weitere Tätigkeiten
Lehraufträge an der Werbeakademie und am Wifi Wien, Lehrauftrag am Kuratorium
für Journalistenausbildung, Lehrauftrag für den Universitätslehrgang „Marktund Meinungsforschung“ (1994–1998), Forschungsbezogene Publikationen und
Vortragsaktivitäten, Mitglied des Mediaboard international der GfK-Gruppe (seit
2000), Vorstandsmitglied und Vorstandsvorsitzende des VMÖ (Verband der Marktforscher Österreichs, 1994–2000)
84
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Mag. Sigrid Svitek
Leiterin der ORF-Radioforschung. Studium der Soziologie an der Grund- und Integrativwissenschaftlichen Fakultät der Universität Wien. Während und nach dem Studium Projektarbeiten im Bereich Sozial- und Konsumforschung. Seit 1984 im ORF
mit dem Aufgabenschwerpunkt Radioforschung für alle ORF-Radioprogramme
tätig.
Vertreten in folgenden Gremien und Fachorganisationen:
Programmausschuss, dem Methodengremium des Vereins Arbeitsgemeinschaft
Media-Analysen
Vorstand Radiotest
Arbeitsgremium, dem Methodengremium des Radiotests
GEAR (Group of International Audience Researchers)
AMEG (Audiometer Evaluation Group)
VMÖ (Verband der Marktforscher Österreichs)
FMP (Verein Forum Mediaplanung)
Forschungsbezogene Publikatoinen und Vertragstätigkeit
85
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
‘How to settle the message’ – Medien- und
Werbewirkung jenseits von Reichweiten und GRPs
Anmerkungen zur Mediaplanung aus Sicht der
(Print-) Medien
Von Michael Pusler
Zur Bewertung von Medialeistung
Seit das Controlling in die Marketingabteilungen Einzug gehalten hat, stehen
Kommunikations- und insbesondere Werbemaßnahmen zunehmend auf dem
Prüfstand. Im Mediaplanungs- und -schaltprozess hat dies in den letzten Jahren
zu einer Reihe von Veränderungen geführt, die zumeist im Zusammenhang mit
dem Schlagwort „Effizienzsteigerung“ stehen. Neben den Mediaagenturen sind
mit den Auditoren weitere Wächter des Werbe-Euro auf den Plan getreten.
Dem wachsenden Kostendruck vieler Werbungtreibenden gehorchend, wird
dabei leider nicht selten Effizienzsteigerung mit „Quantität pro Geldeinheit“
gleichgesetzt und häufig übersehen, dass nicht die Leistung jeder werblichen
Maßnahme bzw. jedes Werbeträgers im komplexen Kommunikationsprozess mit
denselben Maßstäben gemessen werden sollte. Eine bloße monetäre Optimierung ist eben nicht gleichbedeutend mit einer Optimierung in der Wirkung. Der
viel beschworene Kommunikationsmix zur Wirkungssteigerung steht vielmehr
für komplementäre Wirkungsleistungen sowohl der einzelnen Werbeträger als
auch – zu Zwecken ihrer Gestaltung – der Werbemittel und kennt mehrere Wirkungsdimensionen (hierzu später mehr).
Was für die Markenartikelindustrie der Begriff „integrierte Markenführung“
ist, findet nun aktuell in den Medien mit der Entwicklung integrierter
Kommunikationslösungen seine Entsprechung. Die Konvergenz der Medien, das
Berücksichtigen medienspezifischer Stärken, ermöglicht dabei den kommunikativen „Mehrwert“ für die Inserentenmarke.
Wie sieht das aber nun im Marketing-Controlling aus, wird diesen Entwicklungen angemessen Rechnung getragen? Häufig nicht, denn oft werden die
Wirkungsbeiträge der verschiedenen Mediengattungen im Kommunikationsmix
auf derselben Aggregationsebene verglichen (Reichweite, Kontakte), ohne deren
Spezifika angemessen zu berücksichtigen.
87
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Ohne hier auf einzelne Ansätze der Werbeträgeroptimierung näher eingehen
zu wollen, muss festgestellt werden, dass sich viele Optimierungsansätze nicht
selten im – unbestritten sehr wichtigen – Aspekt der Monetarisierung erschöpfen,
und dies viel zu häufig im Sinne eines „maximum value for minimum money“.
Dass mit minimum money aber eben zumeist kein maximum value zu erzielen
ist, mussten einige Werbungtreibende bereits deutlich feststellen. Und das nicht
nur auf Grund eines zu geringen Budgets: Was nicht oder zu selten stattfindet
und wodurch sich Fehler vermeiden ließen, ist eine qualitative Evaluierung der
monetären Optimierung (Media-Einkauf), also z. B. zu prüfen, ob die Marketingzielsetzung erfolgreich erreicht wurde.
Dieser Beitrag beginnt daher mit der Annahme, dass Medien unterschiedliche
Funktionen für den Nutzer aufweisen. Ziel ist es, Mittel und Wege der strategischen Medienforschung vorzustellen, die diese abbilden sowie für die verschiedenen Medien eine differenzierte Bewertung ihrer Leistung ermöglichen.
Die vorgestellte Sichtweise soll nicht bewährte Größen der Mediaplanung in
Frage stellen. Vielmehr wird beabsichtigt, den bekannten Leistungsaspekten weitere Facetten hinzuzufügen, um im Interesse der Marktpartner in der Diskussion
um Media-Wirkungsbeiträge mehr Transparenz zu erzielen.
Von der Kontaktchance zur Markenqualität – Wandel in der
Beschreibung von Medienfunktionen für den Werbemarkt
Nicht zuletzt auf Grund fundamentaler technologischer und funktionaler
Veränderungen im Medienbereich besitzt das klassische Modell der Massenkommunikation – Medien beeinflussen Massen und nicht umgekehrt – schon
lange keine Gültigkeit mehr. Das Schlagwort von der „Mediengesellschaft“ wird
häufig bemüht, beschränkt sich aber dennoch zumeist auf den wachsenden Einfluss der Massenmedien im Lebensalltag der Menschen. Dabei spielt die zwischenmenschliche Kommunikation in der Mediengesellschaft (insbesondere die
Thematisierung der Medieninhalte im Alltagsgespräch) bereits heute eine wichtige, in ihrer Bedeutung weiter zunehmende Rolle. Menschen tauschen sich über
Gesehenes und Gelesenes aus, „inszenieren“ sich neuerdings selbst (angefangen
bei „Big Brother“ bis hin zu den aktuellen Rate- und Casting-Shows). Welche
Agenda im Konzert der Medienangebote erfolgreich ist, welche Themen dominieren, darüber entscheiden zunehmend Quoten und Auflagen.
Themenkompetenz dominiert nach unserer Überzeugung im Kampf um die
Aufmerksamkeit allerdings gegenüber purer Vielfalt; Medien können nur dann
glaubwürdig eine Agenda besetzen (und somit als „Marke“ fungieren), wenn sie
für den Leser/Seher/Hörer auch „für diese stehen“, von ihm entsprechend wahr88
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
genommen und akzeptiert werden. Diesen „Mehrwert“ zu schaffen, eben nicht
nur zu informieren oder zu unterhalten, macht den markenbildenden Charakter
von Medienangeboten aus.
Für die Mediaforschung und die sich darauf stützende Mediaplanung ist nun
wichtig, wie dieser Mehrwert einer Medienmarke darstellbar wird. Da sich Markenwert nicht per se – wie oben angeführt – sondern vielmehr als Mehrwert
zu den funktionalen oder emotionalen Leistungen eines Medienangebots ergibt,
kann er sich nur „in den Köpfen“ der Mediennutzer wieder finden. Folglich
müssen diese – mit ihren Nutzungsmotiven für die Medienwahl – berücksichtigt
werden. Doch für die Markenbindung reicht dies allein nicht aus: Neben Nutzungsmotiven ist die Relevanz z. B. eines Zeitschriftentitels für die Identifikation und Beschreibung der relevanten Bedürfnisse sowie das Zufriedenstellen
dieser Nutzungsbedürfnisse von entscheidender Bedeutung. Es gilt die Frage zu
beantworten, warum beispielsweise ein bestimmter Zeitschriftentitel genutzt, ein
anderer aber vom Konsumenten abgelehnt wird.
Erklärungen hierzu finden wir im Gratifikationsansatz (Uses-and-GratficationsApproach), der in der Medienforschung bereits eine längere Historie aufweist,
aber z. B. für Printmedien bislang keine oder allenfalls nur wenig Verwendung
gefunden hat.
Der Uses-and-Gratifications-Approach
Neben der redaktionellen Schwerpunktsetzung, die das „Wesen“ einer Publikumszeitschrift oder allgemein eines Medienangebots ausmacht (und für Publikumszeitschriften z.B. durch die Funktionsanalyse beschrieben wird), ist wesentlich,
warum sich ein Käufer für einen Titel entscheidet, aus welchen Gründen der
Leser einen Titel (regelmäßig) nutzt, und wie der Leser mit einzelnen Beiträgen
bzw. mit Werbung umgeht. Voraussetzung hierfür sind bewusste psychologische
Erwartungen, die Rezipienten in Bezug auf die Nutzung einzelner Titel haben.
In diesem Zusammenhang relevant ist auch, inwiefern solche Erwartungen nach
einer Nutzung erfüllt oder enttäuscht werden.
Dabei kommt es darauf an, diejenigen Indikatoren zu identifizieren, die trennscharfe und differenzierende Beschreibungen liefern. Der Uses-and-Gratifications-Approach und die Weiterentwicklungen dieses Ansatzes bieten hierzu ein
theoretisches Fundament, solche Indikatoren zu entwickeln.
Die ersten gratifikationsorientierten Studien entstanden in den 1940er- und
1950er-Jahren. Die Neuheit dieses Ansatzes lag darin, eine Gegenperspektive zur
klassischen Wirkungsforschung zu entwerfen: Fokussiert wurde nun der Rezipi89
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
ent selbst und damit die Frage, warum bestimmte Personen bestimmte Medien
nutzen und wie sie davon profitieren. Das Konzept der eskapistischen und kompensatorischen Mediennutzung sollte hierbei oftmals in den Vordergrund rücken,
wenngleich auch zunehmend weitere Nutzungsmotive ermittelt wurden.
In den 1970er- und -80er-Jahren wurde der Ansatz sowohl theoretisch als auch
empirisch systematisch weiterentwickelt: Da die Nutzungsmotive in der Regel
eher abstrakt anmuten, werden sie als Motivdimensionen verstanden, die selbst
durch eine Vielzahl von Items repräsentiert werden, die konkreter zu erfassen sind
(z. B. wird das Nutzungsmotiv „Information“ oftmals durch Items wie „erweitert
mein Wissen“, „gibt mir Entscheidungshilfen“, „gibt mir einen Überblick über
unterschiedliche Meinungen“ etc. dargestellt). Große Popularität erlangte die
Untersuchung von Denis McQuail, die – mittels einer Faktorenanalyse diverser
Items – die Motivdimensionen „Unterhaltung“, „Integration und soziale Interaktion“, „Identität“ und „Information“ erbrachte (McQuail, Denis: Mass Communication Theory. An Introduction. London 1983).
Die universelle Anwendbarkeit der Dimensionen und ihrer einzelnen Bestandteile macht das Modell so attraktiv. Gerade weil er für Print bislang wenig differenziert ist, bietet der Ansatz die Möglichkeit, mehr – und vor allem – Neues
und Wichtiges über die Mediennutzung von Zeitschriften und den Mediennutzer zu erfahren und hiermit den Mediaplanern zukünftig ein Instrument zur
Unterstützung strategischer Planungsprozesse zur Verfügung zu stellen.
Greifen wir nur einmal eine aktuelle Diskussion in der Print-Mediaplanung
auf, die den Aspekt der Umfelder bei der Werbemittelleistung (Anzeigenbeachtung, Kommunikationsleistung) thematisiert. Thematisch zum Botschaftsinhalt der Anzeige „passende“ homogene Umfelder fördern die Werbewirkung,
insbesondere Beachtung, während botschaftsferne Themen diese hemmen, so
die Annahme. Zu diesem Sachverhalt liefert die Rezeptionsforschung allerdings
bereits seit Jahren widersprüchliche Befunde. Einzig stabiles Erklärungsmerkmal
ist hier die Person selbst – nämlich ihre Einstellung gegenüber dem Botschaftsinhalt (Involvement), geprägt durch Kenntnisse über das Produkt/die Marke, das
individuelle Interesse daran bzw. die Erfahrungen damit.
Es ist daher angemessener, an Stelle einer „Detailbetrachtung“ zum Einfluss
der unmittelbaren Umfelder von Effekten des Werbeträgers insgesamt, also der
Medienmarke auf die Rezeption der Anzeige auszugehen, wie sie der Gratifikationsansatz beschreibt. Die Medienmarke schafft ihre Erlebniswelt, eine eigene
Rezeptionsverfassung beim Leser, der sie ja eben deshalb auch nutzt.
Wir gehen deshalb davon aus, dass die „Strahlkraft“ der Medienmarke einen
90
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
höheren Erklärungsbeitrag für die Anzeigenwirkung (Imagetransfer) beisteuert
als das unmittelbare redaktionelle Umfeld.
Mediamix – Der Verbraucher erlebt Marken in wechselndem
Media-Kontext
Mit dem Stichwort der „medialen Wirkungsbeiträge“ betreten wir das Aktionsfeld Mediamix. Der Werbungtreibende ist in erster Linie daran interessiert, dass
seine Mediagelder sinnvoll und optimal eingesetzt werden. Welchen Medien
diese Gelder zugeführt werden, ist für ihn zunächst zweitrangig. Der Mediamix
wird häufig als angemessener Weg angesehen, um die Kommunikationszielsetzung des Werbungtreibenden medial möglichst erfolgreich umzusetzen.
Dass der Autor Print im Mix eine besondere Rolle zuweist, darf hier ebenso
wenig überraschen wie die Tatsache, dass „Mediamix“ nicht als Option verstanden wird, Online als „Beigabe“ zum Anzeigengeschäft zu sehen. Vielmehr kann
mit dem crossmedialen Mix Print-Online dem Wunsch vieler Werbungtreibenden nach einer geeigneten Umsetzung ihrer integrierten Markenführung durch
eine passende integrierte Kommunikationslösung entsprochen werden.
Mediamix ist nicht die Aneinanderreihung verschiedener Werbeträger, die
dieselbe Botschaft adaptiert und dabei die Besonderheiten dieser Kanäle
unberücksichtigt lässt. Mediamix steht vielmehr für die Optimierung der kommunikativen Wertschöpfung zum Ziele eines höchstmöglichen Wertes sowohl
für den Mediennutzer als auch den Anbieter von Leistungen/Produkten (den
91
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Werbungtreibenden). Das heißt eben nicht nur, den Mediennutzer durch eine
maximale Kontaktdichte zu (über-)fordern, sondern seine Ansprache über die
Wahl der Medien und Sujets sowie weiterer Werbe- bzw. Kommunikationsformen seinen Nutzungsbedürfnissen angemessen zielführend zu organisieren und
zu dosieren.
Werbewirkung – Was leisten Untersuchungsinstrumente
und wie lassen sie sich verbessern?
Werbewirkungsanalysen – und wir betrachten hier in erster Linie solche der
kontinuierlichen Ex-post-Kontrolle wie Werbetrackings – differenzieren in den
abgebildeten Messgrößen oft nicht valide nach Medienspezifika. Ob Awareness
oder Sympathie, Markenerinnerung oder das Zurückspielen konkreter Werbeinhalte – die Zuordnung zu Medien in solchen Befragungen ist unzureichend und
überfordert die Befragten häufig; die Bestimmung von Kontaktwahrscheinlichkeiten entfällt zudem häufig. Selbst eine differenzierte Abfrage nach der Werbeerinnerung in einzelnen Medien leistet nur unwesentlich eine Verbesserung,
produziert möglicherweise Befragungsartefakte.
Aus diesem Grund ist es unseres Erachtens wichtig und dringend geboten,
bei der Bewertung der Medienbeiträge im Medien- bzw. Kommunikationsmix
von bestimmten Annahmen zu den Funktionen der Medien in ihrer Rolle als
Werbeträger (Awareness-Aufbau, Image, Abverkauf, Loyality-Aufbau, Nachkauf-Rechtfertigung etc.) auszugehen, um eine anschließende Evaluation vor
diesem Hintergrund vornehmen zu können.
Ausgehend von der exakten Beschreibung der Marketing-Zielgruppe sollte eine
Übersetzung in eine passende Kommunikations-Zielgruppe erfolgen. Was heißt
das? Besteht das Kommunikationsziel – und entsprechend die Ausgestaltung
der Werbemittel – in der Neuproduktvorstellung, so sind bestehende Produktbzw. Markenverwender sowie solche, die zum beworbenen Produkt segmentnahe
Konkurrenzprodukte verwenden, zunächst die Kernzielgruppe.
Nun stellt sich die Frage, wie diese Zielgruppe mit Medien optimal zu erreichen
ist. Das erfordert mehr, als nur genutzte Medien zu rangreihen und anschließend
eine Auswahl nach TKP oder GRPs (Kontakten in der Zielgruppe) vorzunehmen.
In der Regel sind Marketing-Zielgruppen keine homogene Masse, unterscheiden
sich teilweise recht deutlich in ihren medialen und interpersonellen Kommunikationsgewohnheiten. Adressaten, die zum Produkt viel kommunizieren, auch
sonst häufig um Rat gefragt werden und somit Meinungsbildnerqualitäten aufweisen, sollten kommunikativ anders angesprochen werden als Personen, die
– obwohl Mitglieder derselben Marketing-Zielgruppe z. B. nach soziodemografischen Merkmalen – demselben Produkt entweder weniger Interesse ent92
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
gegenbringen oder aber ganz anders mit anderen Personen kommunizieren,
möglicherweise eher zurückgezogen leben.
Solchen Überlegungen hat Hubert Burda Media bereits vor Jahren Rechnung
getragen mit der Entwicklung der Com-Acting-Typen (FOCUS Magazin Verlag),
deren bekanntester die Info-Elite ist (zudem Entscheider im Decision Network,
neuerdings ergänzt durch eine Typologie nach Medienverwendung). Im Rahmen
der Untersuchung Communication Networks1 sind diese Kommunikationstypen
der Mediaplanung – für die verschiedensten Märkte – zugänglich gemacht worden.
Ergänzend kann durch die Identifikation der zentralen Nutzungsbedürfnisse die
Verbindung zum Uses-and-Gratifications-Ansatz erreicht werden.
Die spannende Frage lautet nun zum einen, wie diese Zielgruppen zu finden
bzw. zu definieren sind, und daran anschließend, wie der Kommunikationserfolg
aus den getroffenen Annahmen möglichst valide und zuverlässig abzubilden ist.
Hierzu ist ein mehrstufiges, multimethodales Vorgehen erforderlich.
Zunächst findet eine Zielgruppensegmentation auf Grundlage der Daten einer
Markt-Media-Studie statt. Am Beispiel von Communication Networks – die
eine hohe Fallzahl für gehobene Entscheider-Zielgruppen ausweist – sei dies
die Anschaffung von Nutzfahrzeugen (B-to-B-Zielgruppe). Die Übersetzung
in den Mediaplan wird unterstützt durch die Beschreibung der Produkt- bzw.
1
Communication Networks ist mit 29 917 Fällen (aktuelle Untersuchung CN 7.0) nach der VA die
größte Markt-Media-Untersuchung Deutschlands. Darin finden sich auch Verwenderdaten in zentralen Märkten (EDV, Pkw, Mode, Finanzen etc.) von 13 308 Entscheidern aus dem öffentlichen Bereich
sowie der Privatwirtschaft.
93
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Segmentverwender/institutionelle Entscheider (Marketing-Zielgruppe) in Kategorien einer Mediazielgruppe. Diese zeichnet sich in besonderer Weise durch
die Affinität für eine bestimmte mediale Ansprache aus (nach Medien sowie
z. B. auch danach, ob verstärkt mit Emotionen und/oder Informationen geworben werden sollte). Eine klassische Mediastreuplanung kann mit diesem Wissen
sinnvoll ergänzt werden.
Ist sich der Werbungtreibende auf Grund der Zielgruppen- bzw. Potenzialbestimmung bei der Wahl des geeigneten Werbemittels nicht sicher, lässt sich diese
durch einen Werbemittel-Pretest herstellen, der bei der Stichprobenrekrutierung
bereits Zielpersonen der Marketing-Zielgruppe berücksichtigt und diese nach
Kommunikationsqualitäten klassifiziert.
Dass dies auch mit einem Instrument der Verlagsmarktforschung möglich ist,
zeigt der FOCUS-Copytest. Dabei wird der Original-Heftausgabe ein zusätzlicher
Beihefter zugeführt, der beim Durchblättern des Heftes keinen merklichen Unterschied zum nicht präparierten Heft erkennen lässt. Er bietet aber die Möglichkeit,
verschiedene Anzeigenmotive ‘pre-print’ (vor der eigentlichen Schaltung) zu
untersuchen und so eine Entscheidungsfindung für das geeignete Sujet zu
unterstützen. Aus Gründen der Kontrollierbarkeit – insbesondere der Heftdistribution unter Gesichtspunkten der Vertraulichkeit – erfordert dieser Untersuchungsansatz die kontrollierte Vorlage bei einem kleinen Teil der Nutzerschaft.
Geeignet hierfür und praktikabel ist, einen Teil der Abonnenten in diese Untersuchung mit einzubeziehen, um bei Befragungen eine gezielte Stichprobensteuerung und -kontrolle zu gewährleisten.
Nun wissen wir, mit welchen geeigneten Werbemitteln und über welche
Werbeträger das Kommunikationsziel in der definierten Marketingzielgruppe
möglichst optimal erreicht werden kann. Abschließend stellt sich die Frage, auch
um für die Zukunft zu lernen, wie erfolgreich die Werbung war.
Selbstverständlich kann hier nun ein gängiges Werbetracking-Instrument zum
Einsatz kommen und dabei die Zuspielung der S&P-Werbeausgaben erfolgen, um
Output (Bekanntheit, Recall etc.) und Input (in Euro) einander gegenüberzustellen.
Aus den oben angeführten Gründen erscheint dies aber nicht ausreichend, um ein
umfassendes Bild über die Leistungsfähigkeit der eingesetzten Werbeträger zu
erhalten.
94
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Eine sinnvolle Werbeträger-/Werbemittel-Evaluation muss sowohl die Bestimmung der Kontaktchance mit den eingesetzten Medien, den kompletten
Media-Streuplan und die kommunikative Wirkung der kompletten Kampagne
ermitteln als auch konative (handlungsrelevante) Einstellungskomponenten
berücksichtigen.
Dabei spielen – durch den Kontakt mit dem Werbemittel – für den langfristigen
Kommunikationserfolg folgende Aspekte eine zentrale Rolle:
•
•
•
•
erreichte Anstöße, sich weitere Informationen zum Produkt einzuholen
die Marke stärker im Relevant set of mind zu verankern
eine erklärte Kaufabsicht
die Bestätigung der Marken- bzw. Produktwahl in der Nachkaufphase
(wichtig für Wiederholungskäufe und dauerhafte Markenbindung).
Zudem ist eine ergänzende Qualifizierung auf der Ebene Marketing-/
Mediazielgruppe sinnvoll, um für zukünftige Kommunikationsmaßnahmen zu
profitieren (z. B. Grad der Produkt-/Markenerfahrung; Rolle eines Meinungsbildners). Hierzu können – über Bindeglieder – Ex-post- (Werbepost-Test/
Werbetracking) und Ex-ante-Daten (Markt-Media-Untersuchungen) durch Fusion
ineinander überführt werden. Dieses sehr komplexe statistische Verfahren bedarf
einer eigenen, umfangreichen Erläuterung und kann daher an dieser Stelle nicht
angemessen gewürdigt werden. Nachdem in der Vergangenheit nicht selten kritisiert, ist es – nicht zuletzt auf Grund zahlreicher Modelloptimierungen – in den
letzten Jahren zu einem akzeptierten Verfahren weiter entwickelt worden.
95
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Kampagnenevaluation – Gedanken zu einer „Revitalisierung“
der Werbewirkungsforschung
Um in der Planung angemessen berücksichtigt zu werden, müssen Erkenntnisse
zu medialen Wirkungsbeiträgen die Hürden der Evaluation erfolgreich
passiert haben. Das Feld der Werbewirkungsforschung und darin speziell der
Werbeträgerevaluation ist kein Neues, umfangreiche Analysen mit bahnbrechenden Erkenntnissen sind daher nicht nebenbei zu erzielen und müssen zudem vom
breiten Konsens der Marktpartner getragen sein.
Daher können – und sollen – zu diesem Thema deshalb auch in erster Linie Perspektiven im Kontext der Untersuchung der Werbeträgerleistung aufgezeigt und
keine finalen Erkenntnisse dargestellt werden.
In den oben ausgeführten Überlegungen sollte deutlich werden, dass lediglich
ein mehrstufiges, mehrere methodische Ansätze umfassendes Forschungskonzept
den Prozess der Medienleistung transparent machen kann. Die zu wählenden
Parameter müssen vor zukünftigen Anwendungen in der Mediaplanung bezüglich
ihrer Aussage- bzw. Vorhersagekraft bewertet werden.
Zu den geeigneten Meßgrössen: Versteht man werbliche Kommunikation vor
dem Hintergrund komplexer Wirkungsbezüge, so kann Werbeplanung längst
nicht mehr als „money in – value out“ verstanden und z. B. lediglich am erzielten Recall oder Abverkauf gemessen werden. Folglich müssen weiter gehende
Indikatoren in der Ex-post-Betrachtung der Werbung eingeführt werden, um die
Frage „Was hat es gebracht?“ den verschiedenen Zielsetzungen entsprechend
angemessen beantworten zu können.
Doch welche Indikatoren sollten dies sein – was bringt tatsächlich eine nennenswerte Bereicherung? Dies lässt sich nur vor dem Hintergrund primärer Kommunikationsziele beantworten; also z. B. ob in erster Linie Awareness aufgebaut,
(kurzfristig) der Abverkauf stimuliert oder aber Markenbindungen dauerhaft
gestärkt werden sollen.
Diskussionen um ein „Benchmarking“, also den Vergleich der eigenen Medienleistung mit der der Wettbewerber (aus der eigenen oder aus fremden Mediengattungen) greifen häufig zu kurz, da nicht geklärt ist, welche Leistungsbewertung
anzulegen ist. Ist es der Aufbau der Markenbekanntheit, Werberecall, oder
müssten vielmehr Aspekte wie die Kundenbindung (Aufbau der Kundenbeziehung oder Haltemarketing zur langfristigen Kundenbindung) stärker
berücksichtigt werden? Wir nennen es das „Indikatorenproblem“ der Werbewirkung, weil häufig – auch bei der Werbeträgerplanung – nicht ausreichend darüber
nachgedacht wird, welche Erfolgskriterien überhaupt – und wenn, dann in welcher Weise – heranzuziehen sind. Ergänzend kommt hinzu, dass die vorhandenen
96
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Parameter den Werbewirkungsprozess nicht erschöpfend erklären können, neue
Erklärungsansätze erforderlich sind.
Sicherlich wird zukünftig eine Prüfung noch weiterer Indikatoren zur Beschreibung der Werbewirkung sinnvoll, ja sogar erforderlich sein. Wie eine (viel zu
selten zur Anwendung kommende) Lösung des „Indikatorenproblems“ mit Verfahren aus der multivariaten Statistik (am Beispiel einer Bewertung der Kommunikationsleistung eines Werbemittels) vor dem Hintergrund der kommunikativen
Erfordernisse in der Zielgruppenansprache aussehen kann, stellt der folgende
Abschnitt vor.
Werbemittelevaluation – Komplexe multivariate Analysen
auf Grundlage von Strukturgleichungsmodellen
Antworten auf die Frage nach den geeigneten Indikatoren der Werbewirkung,
die beispielsweise den „Impact“ einer Anzeige erklären (hier gemessen in Indikatoren der Verhaltensabsicht), liefern Strukturgleichungsmodelle: Diese basieren auf Kausalanalysen in der multivariaten Statistik, der bekannteste und am
häufigsten verwendete ist dabei der Lisrel-Ansatz. Hiermit kann dann der gestalterische Erfolg des Werbemittels in der Zielgruppe erklärt werden sowie der
(wechselseitige) Einfluss von Gestaltungs- und Personenmerkmalen dokumentiert werden.
Der Vorteil des Lisrel-Ansatzes liegt – anders als bei Verfahren wie Faktorenoder Regressionsanalyse – in der Abbildbarkeit der gerichteten Zusammenhänge
97
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
zwischen den Variablen eines komplexen Modells. Da es sich in erster Linie
um ein Hypothesen testendes Verfahren handelt, müssen bestimmte Annahmen
über die Wirkungsbezüge einfließen. Erst dann wird eine Modelloptimierung
möglich.
Die Modellannahmen ergeben sich bei unserem Beispiel aus Erkenntnissen
der Printmedienforschung, die einen Einfluss sowohl von Personenmerkmalen
(Produkt- bzw. Markenerfahrung zum Werbemittelinhalt; Einstellung gegenüber
Werbung, Involvement) als auch informativen sowie emotionalen Bewertungskriterien auf den Anzeigenerfolg (Appetenzgrad; das Maß, in dem eine Anzeige
das Interesse am Produkt weckt) unterstellen.
Neben der Bestimmung der Höhe des Einflusses einzelner aggregierter Maße
(Größen wie „Info quality“ werden selbst durch eine Reihe weiterer Indikatoren
bestimmt wie „zeigt mir den Nutzen des Produkts“) ist der „Fit“ des Gesamtmodells die bestimmende Größe. Wie bei Zusammenhangsmaßen allgemein üblich
ist das Maximum 1.0, ein Wert um .90 oder höher sollte hierbei angestrebt
werden.
Man erhält – für unsere Frage nach den geeigneten Indikatoren – wichtige Hinweise über Güte und Erklärungskraft einzelner Items. Dies sowohl im Hinblick
auf die durch sie beschriebenen Dimensionen (im Beispiel „Info quality“, „Emo
quality“ etc.; siehe Grafik) als auch im Bezug auf die Leistungsfähigkeit des
Gesamtmodells.
98
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
In unserem Beispiel – einer Analyse aus Daten eines Anzeigen-Copytests –
aus dem Bereich Pkw (wiederum unser bereits angeführtes Beispiel „Nutzfahrzeuge“) zeigt sich: Die Vermittlung von Informationen sowie die Markenkenntnis sind wichtig für den Anzeigenerfolg. Die emotionalisierenden Merkmale
üben einen weniger zentralen Einfluss auf den Impact bzw. Appetenzgrad aus.
Allerdings – und das ist das Besondere an Strukturgleichungsmodellen, weil nur
hiermit darstellbar – wird auch deutlich, dass Emotionen in hoher Wechselwirkung sowohl zur Wahrnehmung der Informationen als auch der Markenbewertung stehen. Eine Passung zwischen emotionalisierenden und informierenden
Eigenschaften ist folglich in dieser Produktkategorie anzustreben und kann mit
diesem Forschungsinstrumentarium sehr gut begründet werden.
Die Gesamtgüte des Modells zeigt in diesem Beispiel einen insgesamt guten
„Fit“, gleichwohl kann – durch exploratives Vorgehen unter Heranziehung weiterer Indikatoren – durchaus noch eine Steigerung der Erklärungskraft erzielt
werden. Dann wird der Ansatz „Hypothesen generierend“ und kann auch für die
Gewinnung neuer Annahmen zur Werbewirkung eingesetzt werden.
Medienforschung 2004 – es ist (wieder mal) viel zu tun
Ausgangspunkt der vorgestellten Aspekte war die adäquate Bewertung der
Medienleistung, insbesondere der Beiträge einzelner Medien im Mediamix.
Hierzu sollten die genannten Forschungsverfahren Instrumente an die Hand
geben, die die (Print-) Medienleistung gerade in ihren qualitativen Aspekten weit
reichend abbilden.
Die „Kommunikationskette“ kann hiermit – von der strategischen Mediaplanung
bis hin zur Werbemittel- und Werbeeffizienzkontrolle – umfassend qualifiziert,
verfolgt und abgebildet werden. Neben der monetären Kontrolle ist somit auch
eine inhaltliche, konzeptionelle Optimierung möglich.
Effizienzsteigerung in der Werbung ist abhängig von Planungsgrößen, die der
Realität der Medienbeiträge noch näher kommen als vielfach heute der Fall, ihr
in umfassender Weise gerecht werden. Und über allem steht, nicht nur effizient,
sondern auch effektiv zu sein: ein Ziel, das höchstmögliche Transparenz der
beteiligten Größen im Kommunikationsprozess erfordert.
Die Instrumente der Werbewirkungsmessung, insbesondere zur Kampagnenevaluation, sind dieser Transparenz verpflichtet. Sie erfordern gegenwärtig
noch weitere Entwicklungen, insbesondere zur umfassenderen Abbildung der
Medienbeiträge einzelner Werbeträger am Kommunikationserfolg. Hierin –
99
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
und in der Vertiefung der vorgestellten Ansätze – liegt ein Hauptaugenmerk
zukünftiger Aktivitäten in der Medien- und Werbewirkungsforschung mit dem
vorrangigen Ziel, diese Ergebnisse anschließend für Zwecke der Mediaplanung
und Kommunikationsberatung nutzbar zu machen.
Michael Pusler wurde 1964 in Münster geboren.
Nach einem Studium der Psychologie und Betriebswirtschaftslehre in Konstanz, Köln und Mannheim
war er zunächst als Marktforschungs-Trainee und
Projektleiter tätig in der qualitativen Marktforschung (GIM, Heidelberg); anschließend über mehrere Jahre Projektleiter in der Infratest Burke
Wirtschaftsforschung mit dem Schwerpunkt Werbeforschung. Seit 1998 ist er Mitarbeiter von
Hubert Burda Media, zunächst in der Kommunikationsforschung als Projektleiter FOCUS, von 1999
bis 2002 als Bereichsleiter Information und Unterhaltung zusätzlich in der Betreuung von Bunte
und InStyle tätig. Seit 2002 leitet er im Burda
Publishing Center den Bereich Marketing Support,
dessen Aufgabe primär die – häufig forschungsbasierte – Unterstützung der Verlage in strategischen
Fragestellungen, insbesondere im Anzeigen- und
Objektmarketing ist.
Kontakt: puslerm@burda.com
100
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Aufmerksamkeit
Forschung und Anwendung
Von Christian Scheier
Einleitung
Werbungtreibende und Agenturen kämpfen um ein immer knapper werdendes
Gut: die Aufmerksamkeit der Konsumenten. Ohne Aufmerksamkeit keine Werbewirkung – auch die beste Imagekampagne bleibt ohne die Aufmerksamkeit der
Zielgruppe wirkungslos.
Die Bedeutung der Aufmerksamkeit für die Werbewirkung geht dabei weit über
das reine Erregen von Aufmerksamkeit (z.B. „sex sells“) hinaus. Die neuere psychologische Forschung belegt, dass Aufmerksamkeit für das bewusste Wahrnehmen von Informationen insgesamt eine zentrale Bedeutung hat.
Wir sehen viel weniger, als wir glauben. So sind wir beispielsweise mindestens
ein Viertel unserer wachen Zeit blind. Dann nämlich, wenn wir blinzeln (etwa alle
drei Sekunden) oder unsere Augen bewegen (drei- bis viermal pro Sekunde).
Aber auch in der restlichen Zeit nehmen wir die Umwelt nicht umfänglich
wahr. Menschen können schauen, ohne zu sehen. Dies resultiert in einer Blindheit durch Unaufmerksamkeit. Nur wenn die Aufmerksamkeit auf einen Bereich
gerichtet ist, wird diese Information bewusst aufgenommen und verarbeitet.
Diese Einschränkungen unserer Wahrnehmung haben reale Konsequenzen für
die Gestaltung und Umsetzung von Werbemaßnahmen. Das Ziel dieses Artikels
ist es, diese neuen Erkenntnisse zusammenzufassen, und ihre Implikationen für
die Praxis der Werbung und der Mediaplanung aufzuzeigen.
Die große Illusion
Entgegen unser eigenen Introspektion und Intuition sehen wir die Umwelt keinesfalls scharf und umfassend. So sind wir beispielsweise ca. 100 000-mal
täglich oder etwa dreimal pro Sekunde kurze Zeit blind – dann nämlich, wenn
unsere Augen sich bewegen. Nur wenn das Auge stationär ist, nimmt der Mensch
bewusst wahr. Der Grund für die konstanten Blickbewegungen ist, dass unsere
Augen selbst die Umwelt verzerrt und mehrheitlich unscharf aufnehmen (Abbildung 1).
101
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Abbildung 1. Die große Illusion. Die Welt, wie wir sie bewusst wahrnehmen
(links), sieht anders aus als die Welt, wie sie unser Auge sieht (rechts). Der
Unterschied zwischen den beiden Bildern ist Rekonstruktionsleistung des Hirns.
Diese nehmen wir jedoch nicht bewusst wahr – wir erliegen der Illusion, alles
scharf zu sehen.
Das Bild rechts zeigt, wie die abgebildete Straßenszene vom menschlichen Auge
gesehen wird. Nur ein kleiner Bereich des Auges sieht die Umwelt scharf und
hoch aufgelöst. Neben diesem etwa daumennagelgroßen Bereich sieht das Auge
die Umwelt verschwommen. Das ist der Grund für die angesprochenen Blickbewegungen: wir müssen den kleinen, hoch aufgelösten Bereich andauernd bewegen, um ein Gesamtbild unserer Umwelt zu kriegen. Dass wir all dies nicht
wahrnehmen, bedeutet, dass wir einer in vielen Studien belegten „großen Illusion“ aufsitzen – der Illusion, alles scharf zu sehen.
Abbildung 2: Scanpath auf Web-Seite: Die Punkte zeigen die Fixationen, die
Pfeile die Sakkaden (Blickbewegung) eines Probanden. Links die Blickdaten,
rechts die resultierende Wahrnehmung. Nur beachtete Orte werden scharf gesehen und vertieft verarbeitet. Informationen zwischen zwei Fixationen werden
nicht verarbeitet. Es resultiert eine stark reduzierte, lokale Sicht des Nutzers auf
die Web-Seite.
102
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Der Psychologe Kevin O‘Regan stellte 1992 erstmals die Theorie der großen
Illusion auf: Danach speichert der Mensch während der Wahrnehmung keine
Abbilder der Welt im Kopf. Stattdessen täuschen wir uns selbst mit einem Trick:
In dem Moment, in dem ein Aspekt in unserer Umgebung wichtig wird, schauen
wir einfach kurz hin. Eine unbewusste Operation, welche die Illusion erzeugt,
wir hätten dauernd alle Details unserer sichtbaren Umgebung im Kopf. Diese
Theorie des „externen Wahrnehmungsspeichers“ ist konsistent mit Ergebnissen
der neuen Künstlichen Intelligenz, wonach viel weniger als bislang angenommen im Hirn selbst gespeichert wird (Pfeifer & Scheier, 2000). Stattdessen wird
die Welt als Speicher benutzt. Durch die verschiedenen motorischen Systeme
können Mensch und Maschine zu jedem Zeitpunkt mit der Welt interagieren und
beispielsweise Informationen abfragen oder zugreifen.
Eine Konsequenz dieser Tatsache ist das „Schauen ohne Sehen“ – man kann
etwas anschauen, ohne es wirklich zu sehen. Viele Verkehrsunfälle sind darauf
zurückzuführen, dass der Fahrer zwar die Straße fixiert hat, den herannahenden
Fahrradfahrer aber nicht gesehen hat.
Blindheit durch Unaufmerksamkeit
„It is a well-known phenomenon that we do not notice anything happening in
our surroundings while being absorbed in the inspection of something; focusing
our attention on a certain object may happen to such an extent that we cannot
perceive other objects placed in the peripheral parts of our visual field, although
the light rays they emit arrive completely at the visual sphere of the cerebral
cortex.“
Reszo Balint 1907 (übersetzt in Husain and Stein, 1988, Seite 91)
Was Reszo Balint schon Anfang des vergangenen Jahrhunderts bekannt war, hat
sich in der wissenschaftlichen Psychologie erst in den letzten Jahren durchgesetzt – die Tatsache, dass wir zu jedem Zeitpunkt nur den Ausschnitt der Umwelt
bewusst wahrnehmen, auf den sich unsere Aufmerksamkeit gerade richtet.
Im inzwischen klassischen Experiment zur „inattentional blindness“ (z.B. Mack
& Rock, 1998) werden Versuchspersonen beispielsweise Bilder mit einem
Pärchen auf einer Veranda gezeigt. Immer wenn die Versuchsperson blinzelt,
wird dabei ein wesentliches Detail im Bild, z.B. das Gesicht des Mannes, ausgetauscht.
Das sehr robuste und häufig überraschende Resultat dieser Experimente ist, dass
Menschen teilweise große Veränderungen nicht sehen, wenn diese Änderungen
103
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
während des Blinzelns erfolgen. Beim Blinzeln sind die Augen geschlossen, und
man kann die Veränderung nicht sehen. Man würde aber erwarten, dass zumindest nach dem Öffnen der Augen die Veränderung bewusst wird. Das ist jedoch
keineswegs der Fall. Der Mensch sieht zu jedem Zeitpunkt nur drei bis vier
Details seiner Umgebung klar und deutlich. Deshalb kann es sein, dass wir auch
große Veränderungen in unserer Umgebung nicht sehen, weil sie unsere Aufmerksamkeit nicht erregen.
Blindheit gegenüber Veränderung
Experimente zu dem Phänomen „Change-Blindness“ (Simons & Levin, 1997)
belegen ebenfalls, wie stark die bewusste Wahrnehmung vom Wirken der Aufmerksamkeit beeinflusst wird. Worauf sich die Aufmerksamkeit nicht richtet,
darauf wird nicht reagiert, da diese Information nicht vertieft verarbeitet wird.
Bei der Blindheit gegenüber Veränderungen („change blindness“), ein durch viele
Experimente belegtes Phänomen, werden sehr offensichtliche Veränderungen in
Bildern – ansonsten einfache Ziele für die Aufmerksamkeit – übersehen (Abbildung 3).
Abbildung 3: Beispiel für Change-Blindness-Experiment. Die Bilder werden
den Versuchspersonen nacheinander angezeigt. Dazwischen erscheinen kurz so
genannte „mud splashes“ – diese ziehen die Aufmerksamkeit auf sich. Dadurch
werden auch große Veränderungen in den gezeigten Bildern nicht gesehen.
Die Aufmerksamkeit wird in diesen Experimenten bewusst durch Flackern oder
aufblitzende Flecken („mud splashes“) abgelenkt. Ähnlich den Ablenkungen in
solchen Experimenten werden Konsumenten durch Informationsangebote abge104
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
lenkt. Als „eye-catcher“ vorgesehene Effekte können so übersehen werden. So
werden wichtige Kontakte mit der Aufmerksamkeit „verschenkt“ und potenziell
viel Geld verloren, wenn die umsatzkritischen Bereiche übersehen werden.
Nachdem wir die Bedeutung der Aufmerksamkeit für die bewusste Wahrnehmung skizziert haben, wollen wir nun die Aufmerksamkeit selbst näher beschreiben.
Der Scheinwerfer der Aufmerksamkeit
Aufmerksamkeit ist ein Selektionsmechanismus. Auf einen Organismus
wirken ständig Reize ein, die eine Informationsmenge darstellen, die seine
Verarbeitungskapazitäten bei weitem übersteigen. Für den Reproduktionserfolg
ist jedoch nur ein Teil dieser Information relevant. Daher ist das menschliche
Hirn durch die Evolution dahingehend optimiert worden, diesen relevanten Teil
der Information auszuwählen. „Wichtige“ Informationen werden weiterverarbeitet und führen zu Verhaltensreaktionen – „unwichtige“ Informationen werden
ignoriert. Dieser Prozess der selektiven Wahrnehmung heißt visuelle Aufmerksamkeit.
Die visuelle Aufmerksamkeit ist eines der am besten verstandenen Systeme
des menschlichen Wahrnehmungsapparats (Übersicht z.B. in Pashler, 1998; Itti
2002). Die wohl populärste psychologische Metapher für das Funktionieren der
visuellen Aufmerksamkeit ist die so genannte Spotlight-Metapher (Posner et al.
1980). Aufmerksamkeit bewegt sich danach einem Scheinwerfer gleich über
interne Repräsentationen der Umwelt und bestimmt, welche Informationen weiterverarbeitet werden und was ignoriert wird.
Viele Experimente haben die Charakteristika des Scheinwerfers untersucht
(Übersicht in: Cave & Bichot, 1999). So konnte gezeigt werden, dass der
Scheinwerfer seine Größe an die Objektgröße dynamisch anpassen kann. Experimente, in denen Probanden einen Stimulus bestimmter Größe erwarteten, aber
einen davon abweichend großen Stimulus sahen, reagierten langsamer als Probanden, denen ein Stimulus der erwarteten Größe gezeigt wurde (z.B. Cave und
Kosslyn, 1989). Probanden können ihren Scheinwerfer also entsprechend der
Erwartung der Stimulusgröße variabel einstellen.
Wenn Aufmerksamkeit über eine größere Region gelegt ist, reagieren wir langsamer. Fokussierte Aufmerksamkeit reduziert Reaktionszeiten. Auch die Verarbeitung ist „flacher“ bei vergrößertem Scheinwerfer. Fokussierte Aufmerksamkeit
führt zu vertiefter Verarbeitung. Auch dies hat praktische Implikationen für
Medien- und Werbedesign. Um eine möglichst effektive Verarbeitung von Infor105
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
mationen zu unterstützen, sollte Design die Aufmerksamkeit auf die zentralen
Bereiche fokussieren.
Informationen innerhalb des Scheinwerfers der Aufmerksamkeit werden besonders gründlich verarbeitet. Die Größe des Scheinwerfers ist veränderbar. Zwischen Sprüngen der Aufmerksamkeit wird keine Information verarbeitet. Die
visuelle Aufmerksamkeit bewegt sich noch vor Handlungsbeginn an den Zielpunkt der Handlung und beginnt mit der Verarbeitung der unmittelbaren visuellen Umgebung. Sie dient der Vorverarbeitung von Information am Zielort.
Abbildung 4: Der Scheinwerfer der Aufmerksamkeit. Objekte innerhalb des
Scheinwerfers werden vertieft verarbeitet, Objekte außerhalb des Scheinwerfers
werden ignoriert.
Wenn Sie den folgenden Punkt kurz fixieren , hat ihre Aufmerksamkeit schon
bis zu zwölf Buchstaben rechts vom Punkt vorverarbeitet. Beim Lesen hat der
Scheinwerfer also eine stark asymmetrische Form. Bei Sprachen, die von rechts
nach links gelesen werden, ist dieser Zusammenhang spiegelverkehrt. Ähnlich
starke Unterschiede zeigen sich in Abhängigkeit vom Medium – z.B. werden
Web-Seiten anders betrachtet als Plakate –, von den Charakteristika der Zielgruppe (Geschlecht, Alter, Bildung) oder auch des Nutzungskontextes (Exploration, Suche von Information) und des Involvements (high versus low). Studien
zur Aufmerksamkeit im Web müssen dieser Komplexität gerecht werden. Es
genügt in aller Regel nicht, 20 Probanden im Labor zu testen.
Wenn sich die Aufmerksamkeit bewegt – werden Orte zwischen den zwei Zielen
beachtet? Ein realer Scheinwerfer wirft sein Licht auch auf die Orte zwischen
zwei Zielorten. Bei der Aufmerksamkeit scheint das nicht der Fall zu sein. Experimente haben gezeigt, dass die Aufmerksamkeit von einem Ort zum nächsten
springt. Dazwischen liegende Informationen werden nicht bearbeitet.
Wie ist die Reaktionszeit der Aufmerksamkeit – ist sie abhängig von der Distanz
zwischen altem und neuem Ort? Es zeigen sich keine Distanz-Effekte: Der
106
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Scheinwerfer gleitet nicht entlang des Bildes, sondern springt von Ort zu Ort.
Entsprechend dauert ein Sprung ungefähr gleich lang, egal wohin er geht. Würde
der Scheinwerfer gleiten, würde es länger dauern, ihn zu einem weiter entfernten
Ort zu bewegen als zu einem in unmittelbarer Nähe.
Wir wollen uns nun der Frage zuwenden, wie Aufmerksamkeit gemessen werden
kann. Eine detaillierte Übersicht zur Methodik der Aufmerksamkeitsforschung
im Allgemeinen und der Anwendung dieser Verfahren im Mediendesign im
Besonderen findet sich bei Scheier & Heinsen (2003).
Messen der Aufmerksamkeit
Die hier beschriebenen dynamischen Eigenschaften der Aufmerksamkeit können
nur sehr eingeschränkt über eine direkte Befragung erfasst werden. Die visuelle
Aufmerksamkeit ist ein vornehmlich unbewusster Vorgang. In der Experimentalpsychologie wird sie deshalb über so genannte implizite Verfahren gemessen.
Dazu gehören Reaktionszeit-Experimente, Messungen von Hirnströmen sowie
die Messung von Blick, Kopf- und Zeigebewegungen.
All diese Verfahren haben gemeinsam, dass sie die Aufmerksamkeit indirekt über
Bewegungen des Körpers oder Aktivitäten des Hirns messen. Dies ist möglich,
weil die visuelle Aufmerksamkeit die Bewegungen unserer Augen, aber auch
unseres Zeigefingers und Kopfes steuert. Der Scheinwerfer der Aufmerksamkeit
bewegt sich auf auffällige Bereiche und führt dadurch zu Blickbewegungen auf
diese Bereiche hin. Über Blickbewegungen kann deshalb auf Verschiebungen der
Aufmerksamkeit zurückgeschlossen werden.
Genauso kann hierfür aber auch das Drücken einer Taste bei einem Reaktionszeit-Experiment dienen. In einem solchen Experiment werden Sie zum Beispiel
aufgefordert, eine Taste zu drücken, sobald Sie ein bestimmtes Objekt auf dem
Bildschirm erkannt oder gesehen haben. Über Ihre Reaktionszeit kann auf Ihre
Aufmerksamkeit zurückgeschlossen werden. Der Nachteil dieses Verfahrens ist,
dass es keine bzw. nur eingeschränkte Aussagen zu räumlichen Bewegungen der
Aufmerksamkeit erlaubt.
Der Vorteil der Blickmessung ist, dass der Verlauf der Aufmerksamkeit über den
Bildschirm auch räumlich erfasst werden kann. Man kann über spezielle Verfahren die gemessene Blickposition auf Bildschirmkoordinaten beziehen. Diese
Verfahren werden im nächsten Abschnitt besprochen. Hier sei zunächst noch
erwähnt, dass neben der Blickbewegung auch Bewegungen des Zeigefingers
sowie Bewegungen des Mauszeigers, ja sogar Bewegungen des Kopfes zum
Messen der räumlichen Aufmerksamkeit benutzt werden können.
107
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Neuere Forschungsergebnisse, z.B. von Neggers (2000), belegen die enge Kopplung von Aufmerksamkeit und Bewegungen des Zeigefingers. So kann Aufmerksamkeit auch über entsprechende Aufgaben an einem Touchscreen erhoben
werden. Der Nachteil dieses Verfahrens ist neben der Nutzung von teuren Touchscreens die Tatsache, dass der Handrücken beim Zeigen einen Teil des Bildschirms verdeckt. Zudem stellen sich frühzeitig Ermüdungserscheinungen ein.
Da die Messung von Kopfbewegungen bei Bildschirmdarstellungen nicht praktikabel scheint, bleibt neben der Blickmessung noch die Erhebung von Mauszeiger-Bewegungen. Dieses Verfahren beruht auf der Idee, Menschen darauf hin
zu trainieren, den Mauszeiger zum „verlängerten Auge“ zu machen. Unter Zeitdruck nähern die resultierenden Mausklicks sich den Fixationen des Auges an
– auf dieser Erkenntnis beruht das „Attention Tracking“-Verfahren (Scheier &
Koschel, 2002).
Wir wollen uns nun der Frage zuwenden, ob es Geschlechtsunterschiede in der
Aufmerksamkeit, insbesondere in der Rezeption von Werbung und Medien gibt.
Geschlechtsunterschiede
Wir beginnen mit Bildvorlagen, die nackte Haut bzw. erotische Signale zeigen.
Hier zeigen sich die Unterschiede zwischen den Geschlechtern besonders stark.
Die hier referierten Resultate lassen Zweifel am „sex sells“-Slogan aufkommen
– es ist vielmehr so, dass Frauen erotische Reize auf Werbevorlagen vermeiden
und ablehnen.
Frauen: rot
Männer: blau
Männer
Frauen
Männer
Frauen
Abbildung 5: Geschlechtsunterschiede in der Aufmerksamkeit am Beispiel eines
Zeitschriftentitels (links) und zweier Printanzeigen (Mitte und rechts). Frauen
achten deutlich stärker auf Textelemente, Männer fokussieren ihre Aufmerksamkeit stärker auf Bildelemente.
108
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Es finden sich in Frauenzeitschriften mehr erotische Darstellungen von Frauen
als von Männern.
Die „Zielgruppe Frau“ wird häufig mit erotischen Bildern von Frauen beworben.
Ist das jedoch die richtige Strategie, um Frauen anzusprechen? Die Bilder auf
der vorherigen Seite zeigen die Wahrnehmungsschwerpunkte von Männern und
Frauen.
Ob auf Zeitschriftentiteln, TV-Spots, Anzeigen oder Web-Seiten: Frauen
vermeiden es, auf nackte Haut zu schauen. Für Männer sind solche
Bilder jedoch „Vampire der Aufmerksamkeit“ – sie ziehen wertvolle Aufmerksamkeit von umsatzrelevanteren Bereichen ab und binden die Aufmerksamkeit
überproportional stark. Werbemittel mit erotischen Elementen sind häufig viel
weiter vom Produkt entfernt als für die kauffördernde Absicht nötig.
Erotik wirkt nur, wenn sie den Betrachter aktiviert. Männer werden durch weibliche Modelle eher angeregt, während Frauen auf weibliche Erotik mit Anspannung reagieren. Dies zeigen unter anderem Messungen des Hautwiderstands
beim Betrachten von TV-Spots (z.B. LaTour, Pitts und Snook-Luther, 1990). Eine
Vielzahl von Studien belegt, dass Frauen sich von weiblicher Nacktheit, ja von
Nacktheit generell, eher abgestoßen fühlen. Eine Untersuchung der Universität
Mainz kommt zum Ergebnis, dass erotische Details in Werbung mehr schaden
als nützen. Die Betrachter werden danach nicht bloß vom eigentlichen Inhalt der
Werbebotschaft abgelenkt. Sie bewerten auch das beworbene Produkt eher negativ. Felser (2001) fasst die Literatur wie folgt zusammen: „Es sind in erster Linie
Frauen, die Erotik in der Werbung und in den Medien allgemein als übertrieben
bewerten oder ganz ablehnen.“
Zeitschriften und Werbmaßnahmen mit „Zielgruppe Frau“ würden gut daran tun,
erotische Bilder nur sehr sparsam und nicht ohne Pretests einzusetzen. Zu riskant sind die Folgen eines Vampir-Effekts oder gar von Ablehnungseffekten (z.B.
Reaktanz). Kann man Frauen mit nackter männlicher Haut ansprechen? Schauen
wir uns ein Beispiel an. Die folgende Grafik zeigt die Geschlechtsunterschiede
in der Wahrnehmung von Amica.de (MediaAnalyzer Webseitenstudie, w&v Studiendatenbank, 11/2002).
Der „flirt agent“-Banner verfehlt klar die Zielgruppe der Frauen – diese schauen
stattdessen auf die links abgebildete Navigationsleiste.
Männer achten insgesamt stärker auf Bilder als Frauen. Frauen werden viel
stärker durch Textelemente angesprochen, sei dies im Web, auf Zeitschriftentiteln oder Anzeigen.
109
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Amica.de
Frauen: rot / Männer: blau
Abbildung 6: Geschlechtsunterschiede in der Aufmerksamkeit am Beispiel
Amica.de. Auch hier schauen Männer verstärkt auf Bilder – auch wenn diese
männliche Models zeigen. Frauen konzentrieren ihre Aufmerksamkeit deutlich
stärker auf die Navigationsleiste links.
Abbildung 7: Crossmediale Geschlechtsunterschiede in der Aufmerksamkeit. Am
stärksten ausgeprägt sind die Unterschiede in der Rezeption von Internet-Seiten.
Aber auch bei der Wahrnehmung von Zeitschriftentiteln sind deutliche Unterschiede zu erkennen.
110
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Der Effekt tritt besonders stark bei der Wahrnehmung von Web-Seiten auf. Hier
schauen Frauen mehr als doppelt so stark auf Textelemente. Eine genauere Analyse zeigt, dass dies auf die unterschiedliche Beachtung von Navigationselementen und Headlines zurückzuführen ist. Frauen achten signifikant stärker auf
Menüleisten, Logos und Headlines. Auf der weiter vorne gezeigten Homepage
von Amica.de waren es – trotz des visuell schwachen Menü-Layouts – mehr als
dreimal soviel Frauen als Männer, die auf das Menü geachtet haben. Wie kann
man sich diesen Unterschied erklären?
Abbildung 8: Geschlechtsunterschiede im Nutzungsverhalten des Internet
Frauen suchen im Internet stärker zielgerichtet Informationen als Männer. Gemäß
der Ecommerce Facts 3.0-Studie der Deutschen Bank von 2002 legen Frauen
beim Online-Kauf größeren Wert auf eine detaillierte Produktpräsentation, ein
umfangreiches Sortiment, Bonussysteme und Zusatzdienste. Sie agieren ferner
risikoscheuer. Männer lassen sich über Suchmaschinen bzw. durch Surfen zum
Online-Shop leiten.
Wahrnehmungspsychologisch führt ungezieltes Surfen zu verstärkter Bildbeachtung bei Männern, während Frauen insgesamt zielorientierter mit dem Internet
umgehen und deshalb verstärkt auf Navigationselemente achten.
Nicht nur im Internet treten deutliche Effekte auf – auch bei Print-Publikationen
achten Frauen viel stärker auf Textelemente als Männer. Insbesondere achten
Frauen bei Zeitschriften auf Titel und Überschriften, während Männer besonders
111
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
stark von weiblichen Models und Bildern aktiviert werden.
Die gleiche Richtung, wenn auch abgeschwächt, zeigt sich bei Anzeigen. Bei den
Anzeigen mit starken Signalen, wie beispielsweise die schon gezeigte Dior- und
Aubade-Werbung, tritt der Effekt jedoch ebenfalls deutlich zu Tage.
Fassen wir kurz zusammen:
Frauen
Männer
• Fokus auf Texte
• Vermeidung erotischer Bilder
(Wahrnehmung)
• Ablehnung erotischer Bilder
(Einstellung)
• Web: Fokus auf Navigation/
Headline
• Fokus auf Bilder
• „Vampir-Effekt“ bei erotischen Bildern
– zu Lasten von Werbewirkung
• positive Bewertung erotischer Bilder
Abbildung 9: Geschlechtsunterschiede in der Erinnerung an Werbung
Diese Unterschiede haben reale Auswirkungen auf die Werbewirkung – dies
zeigt sich beispielsweise in der Erinnerung an Werbemittel. Durch die stärkere
Textbeachtung erfassen Frauen den Inhalt der Werbung besser und erinnern
sich in Folge deutlich besser als Männer an die Marke und das beworbene Produkt. In einer Studie mit 200 Probanden (MediaAnalyzer Printanzeigen-Studie,
03/2003), haben sich Frauen signifikant besser an die gezeigten Marken erinnert
als Männer. Dabei trat ein interessanter Effekt auf: Die Erinnerungskurve der
Frauen zeigt einen deutlich anderen Verlauf als diejenige der Männer.
Die folgende Abbildung zeigt die Erinnerung für die zwölf getesteten Anzeigen
bei Männer und Frauen. Beide Kurven haben eine U-Form – diese Form entsteht
durch zwei in der Gedächtnispsychologie gut bekannte Effekte. Der PrimacyEffekt: Was zuerst gesehen wird, wird besser erinnert. Und der Recency-Effekt:
Was zuletzt gesehen wird, wird besser erinnert. Elemente dazwischen werden
schlechter erinnert, was in einer U-Form resultiert.
Interessant ist nun, dass die Erinnerungsdaten der Frauen einen viel stärkeren
Primacy- und Recency-Effekt zeigen als diejenigen der Männer. Frauen erinnern sich also besser an die im Test untersuchten Marken und Produkte. Männer
werden häufiger durch Bilder abgelenkt als Frauen und können sich deshalb die
gezeigten Marken weniger gut merken.
112
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Eine Untersuchung mit 1500 Männern der Europäischen Gesellschaft für Psychoanalyse im November ergab, dass fast drei Viertel der männlichen heterosexuellen
Zuschauer in den ersten 30 Sekunden nur Augen für die Nachrichtensprecherin
haben. An das Gesagte konnten sich die Männer nicht erinnern.
Ähnliche Effekte sind in der Werbepsychologie bekannt – Frauen verarbeiten
Werbeinformationen insgesamt genauer, sie achten stärker auf den Inhalte als
Männer.
Wir wollen uns nun abschließend der Frage zuwenden, wie Mediendesign
die beschriebenen Zusammenhänge – speziell der visuellen Aufmerksamkeit –
nutzen kann. Wir tun dies am Beispiel von Web-Design – die Aussagen lassen
sich jedoch für das Design von weiteren Medien (z.B. Print, TV) verallgemeinern.
Implikationen für Mediendesign: Beispiel Web
Für das Design von Web-Seiten bedeuten die hier beschriebenen Zusammenhänge,
dass keineswegs davon ausgegangen werden kann, dass der Konsument ein Werbemittel gesamt wahrnimmt. In der realen Nutzungssituation existieren multiple
Ablenkungen für die Aufmerksamkeit. So kann es sein, dass die Marke oder das
Produkt gar nicht gesehen werden. Die Ablenkungen finden sich häufig im Werbemittel selbst.
113
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Im Web sollte die Aufmerksamkeit der Nutzer über entsprechend gestaltete „eyecatcher“ über die Seite geführt werden. Bewegungen der Aufmerksamkeit basieren auf lokaler Information – sobald der Nutzer in die Seite „eingestiegen“ ist,
bestimmt der Einstiegsort, wohin die nächste Blickbewegung geht. Auffallende
Elemente in der unmittelbaren Umgebung werden verstärkt beachtet. Dieser
Domino-Effekt wiederholt sich nach der zweiten, dritten usw. Blickbewegung.
Das Ziel von nutzeradäquatem Web-Design muss es sein, den Domino-Effekt
durch entsprechende Designmaßnahmen zu führen. Dabei kann beispielsweise
eine Eingangsanimation helfen, die in wenigen Sekunden die wichtigen Elemente der Web-Seite anzeigt und sich dann schließt. Auch über das sukzessive
Laden von Seitenelementen lässt sich die Aufmerksamkeit der Nutzer gut zu
den wichtigen Elementen hinführen. Internet-Nutzer können auf Grund ihres
Wahrnehmungsapparats zu jedem Zeitpunkt nur eine geringe Informationsmenge
verarbeiten. Alle Informationen, wie häufig anzutreffen, auf einen Schlag zu
präsentieren, entspricht nicht den Stärken der menschlichen Wahrnehmung.
Konsistent mit dieser Betrachtung sind Resultate, die zeigen, dass sich Sakkaden verlangsamen, wenn ablenkende Information („Distraktor“) präsentiert wird.
Wenn zeitgleich ein Zielobjekt und ein Distraktor gezeigt werden, erhöhen sich
die Reaktionszeiten am stärksten, wenn sich der Distraktor an demselben Ort
wie das Zielobjekt befindet (Walker et al. 1997). Wichtige Elemente einer WebSeite sollten daher möglichst frei von störenden, ablenkenden Informationen
sein. Störend können dabei alle Informationen sein, die sich physisch zu nahe
am Ziel befinden. Sie treten dann in Wettbewerb um die Aufmerksamkeit und
verlangsamen oder verhindern das schnelle Finden des Zielobjekts (z.B. Suchzeile, Produkt, Bestell-Knopf).
Umgekehrt zeigt sich im „gap-effect“ eine signifikante Reduktion der Reaktionszeit zu einem Zielobjekt. In diesem Paradigma wird der Fixationspunkt ausgeblendet, bevor die Sakkade startet. Damit kann sich die visuelle Aufmerksamkeit
vom Fixationspunkt lösen und schneller reagieren. Für das Web-Design bedeutet
dies, dass Informationen nicht zu „sticky“ sein dürfen. Wird die Aufmerksamkeit
zu stark auf ein Element gebunden, werden andere, wichtige Elemente nicht oder
erst verspätet gesehen. Ein optimales Design führt den Nutzer in wenigen Schritten auf die relevanten Regionen der Seite, wobei die einzelnen „eye-catcher“
nicht zu „sticky“ sein dürfen, um so ein angenehmes Abarbeiten der Informationen zu unterstützen.
Zusammenfassung und Ausblick
Das Ziel dieses Artikels ist es, neue Erkenntnisse zur Erforschung der Aufmerksamkeit sowie ihre Implikationen für Werbung und Mediendesign zusammenzufassen.
114
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Die zentrale Erkenntnis ist dabei, dass der Mensch – und damit der Konsument –
viel weniger sieht als gemeinhin angenommen wird. Experimente zur Blindheit
gegenüber Veränderungen und zur Blindheit durch Unaufmerksamkeit belegen,
dass wir die Umwelt nicht detailliert in unserem Hirn repräsentiert haben. Stattdessen nutzt unser Hirn die Umwelt selbst als eine Art externen Speicher. Dies
bedeutet, dass wir zu jedem Zeitpunkt die Umwelt nach relevanten Informationen absuchen („scanning“). In diesem Prozess spielt die Aufmerksamkeit eine
zentrale Rolle. Ohne Aufmerksamkeit keine bewusste Wahrnehmung – so könnte
man die hier referierten Resultate zusammenfassen.
In diesem Sinne ergibt sich eine neue Bedeutung der von Georg Franck beschriebenen „Ökonomie der Aufmerksamkeit“ – Werbung und Medienplanung müssen
die Aufmerksamkeit der Konsumenten in den Mittelpunkt rücken. Dies bedeutet
auch, dass neue Forschungsmethoden zum Einsatz kommen müssen. Denn Aufmerksamkeit lässt sich über verbal abgefragte Erinnerung – z.B. im „aided“ oder
„unaided recall“ – nur sehr eingeschränkt abgreifen. Nur das zeitnahe Verfolgen
der Aufmerksamkeitsbewegungen auf dem Werbemittel selbst stellt sicher, dass
die relevanten Bereiche auch wirklich gesehen werden.
Dies gilt insbesondere auch für die Mediaplanung – hier kann und sollte das
Werbemittel im Werbeträger auf die Wirksamkeit im Hinblick auf die Zielgruppe
untersucht werden. Wie wirkt die Anzeige in der Zeitschrift A oder der Zeitung
B? Wie wirkt der TV-Spot im Sender C oder der Werbebanner auf der Web-Seite
D? Wo soll ein Werbemittel platziert sein? Wie häufig soll es geschaltet werden,
um eine maximale Wirkung, aber keine Reaktanz zu erzielen?
Neuere Verfahren zur Erfassung der Aufmerksamkeit (z.B. Scheier & Koschel,
2002) werden eingesetzt, um diese Fragen umfassend und zeitnah zu beantworten. Sie bieten den Werbungtreibenden eine optimale qualitative Vorstufe
zur Mediaplanung oder den Redaktionen ein Tool zur Auswahl von TitelblattAlternativen. „AttentionTracking“ (www.mediaanalyzer.com) ermöglicht Werbungtreibenden und Agenturen, Werbemittel im Pretest oder im Posttest zu testen
oder im Rahmen von Copytests Aufmerksamkeitsverläufe bei der Nutzung von
redaktionellem Teil und Werbemitteln zu erhalten.
115
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Dr. Christian Scheier
Psychologe mit Spezialgebiet Künstliche Intelligenz. Diplom über statistische Verfahren in
der Einzelfallforschung (Zeitreihenanalyse). Promotion in Künstlicher Intelligenz (Universität
Zürich). Drei Jahre Postdoctoral Fellow am California Institute of Technology (Pasadena, USA)
mit Schwerpunkt auf Psychophysik, Blickmessung und Aufmerksamkeit.
Autor von über 50 wissenschaftlichen Publikationen und des Standardwerks der neuen KI („Understanding Intelligence“, MIT Press).
Seit 2002 Geschäftsführer der MediaAnalyzer
Software & Research GmbH in Hamburg. Aktuelle Forschungsprojekte mit den Universitäten
Hamburg, Osnabrück und Beratertätigkeit am
California Institute of Technology im Bereich
Methoden, Aufmerksamkeit und Erinnerung.
Kontakt: scheier@mediaanalyzer.com
Literatur
Abrams, RA., Meyer, DE., Kornblum, S. Eye-Hand Coordination: Oculomotor
Control in Rapid Aimed Limb Movements. J. Exp. Psycholog. Hum.: Perception
and Performance., 16/1990, 248–267
Bekkering, H., Pratt, J., Abrams, RA. The Gap Effect for Eye and Hand Movements. Percept Psychophys., 58/1996, 628–635
Cave, K.R. & Bichot, N.P. Viso-Spatial Attention: Beyond a Spotlight Model.
Psychonomic Bulletin and Review, 6/1999, 204–223
Deubel, H., Schneider, WX. Saccade Target Selection and Object Recognition:
Evidence for a Common Attentional Mechanism. Vision Res., 36/1996,
1827–1837
Deubel, H., Schneider, WX., Paprotta, I. Selective Dorsal and Ventral Processing: Evidence for a Common Attention Mechansim in Reaching and Perception.
Visual Cognition, 5/1998, 81–107
Franck, G., Ökonomie der Aufmerksamkeit, in: Merkur Nr. 534/535 (September/
Oktober 1993)
116
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Felser, G.: Werbe- und Konsumentenpsychologie. Eine Einführung. Stuttgart
(Spektrum Akademischer Verlag) 2001
Husain M. & Stein J. „Reszo Balint and His Most Celebrated Case“, Archives of
Neurology 45/1988, 89–93
Itti, L., Visual Attention, In: The Handbook of Brain Theory and Neural Networks, 2nd Ed., MIT Press (M. A. Arbib Ed. 2002)
Kroeber-Riel, W. Bildkommunikation. (Verlag Vahlen) 1996
Lee, D.K, Koch, C. & Braun, J. Attentional Capacitiy is Undifferentiated: Concurrent Discrimination of Form, Color, and Motion. Percept. Psychophysics,
61(7)(1999) 1241–1255
Mack, A., & Rock, I.. Inattentional Blindness. Cambridge, MA, USA (The MIT
Press), 1998
Neggers, S. Oculomotor Behavior During Pointing. Berlin (Wissenschaftlicher
Verlag Berlin) 2002
Pashler, H. The Psychology of Attention. Cambridge, MA (MIT Press) 1998
Pfeifer, R., Scheier, C. Understanding Intelligence. Cambridge, MA (MIT Press.),
2. Aufl. 2000
Posner, M.I., Snyder, C.R.R. & Davidson, B.J. Attention and the Detection of
Signals. Journal of Experimental Psychology: General, 109/1980, 160–174
Scheier, C. & Koschel, K.. Your Customer‘s Eyes. Planung & Analyse, 10/2002
Scheier, C.; Reigber, D. & Egner, S. Messen der Aufmerksamkeit bei InternetNutzern – Ansatz und Einsatz eines neuen Verfahrens zur Online-Messung von
Aufmerksamkeit. 2. Aufl. 2003
Theobald, A./Dreyer, M./Starsetzki, T. Online-Marktforschung. Theoretische
Grundlagen und praktische Erfahrungen. Wiesbaden (Gabler), 2. Aufl. 2003
Simons, D. & Chabris, C. Gorillas in Our Midst: Sustained Inattentional Blindness for Dynamic Events. Perception, Volume 28/1999, 1059–1074
Simons, D. J., & Levin, D. T. Change Blindness. Trends in Cognitive Sciences,
1(7)(1997), 261–267
117
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Walker, R, Deubel, H, Schneider, WX, & Findlay, JM. Effect of Remote Distractors on Saccadic Programming: Evidence for an Extended Fixation Zone. J. Neurophysiol., 78/1997, 1108–1119
Yom, M.(1997). Frauen und Online-Medien, Löw & Vorderwülbecke
118
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Dem Online-Nutzer auf der Spur
Geeignete Instrumente für die Mediaplanung
Von Dieter Reigber
Online-Nutzung ist ein Forschungsfeld der Mediaforschung1, weil Reichweiten,
wie sie für die klassischen Werbeträger ausgewiesen werden, auch für Angebote
im Internet gemessen werden können.
Dem Online-Nutzer auf die Spur zu kommen, heißt nicht nur über Ergebnisse
zum Internet-Nutzungsverhalten, über Nutzerpotenziale oder Reichweiten von
Online-Werbeträgern zu berichten. Für Mediaforscher stellt sich zuerst die Frage:
„wie soll Online-Nutzung gemessen werden?“
Der Beitrag befasst sich insbesondere mit den für die Mediaplanbarkeit wichtigen
Bedingungen. Welche Erhebungsverfahren werden eingesetzt, um Online-Nutzungsverhalten zu messen? Welche davon sind zur Darstellung von Reichweiten geeignet? Welche Definition des Online-Nutzers ist die richtige? Welche
Fragen müssen hierzu in Umfragen gestellt werden und wie müssen sie formuliert werden, damit der normale Mensch sie versteht? Oder wie müssen technisch
gemessene Logfile-Daten interpretiert werden, um vom Client, dem Rechner,
auf den Visitor, den Nutzer zu schließen? Welche Zielgruppenmerkmale bzw.
welche -modelle (Typologien) eignen sich, um Online-Nutzer und deren Nutzungsverhalten zu beschreiben?
Die Online-Forschung steht vor großen Herausforderungen. Die Dynamik des
Online-Marktes erfordert Maßnahmen, die Auswirkungen auf die Erhebung von
Daten haben. An der Schwelle der Internet-Ära bekommt die klassische Marktforschung zunehmend Legitimationsprobleme, weil sie den Anforderungen an
Datenaktualität nicht nachkommt. Und die online durchgeführte Marktforschung
hat noch Akzeptanzprobleme, weil sie keine repräsentativen Daten erzeugt.
In diesem Spannungsfeld versuchen Markt-/Mediaforscher, die sich dem Thema
Online-Forschung verschrieben haben, bewährte Standards der klassischen Medienforschung zu erhalten und für neue Konventionen und Erhebungsverfahren
1
Medienforschung wird an Universitäten und Instituten betrieben, die sich allgemein mit dem Mediennutzungsverhalten befassen. Mediaforschung ist eine Dienstleistung der Medienunternehmen und
befasst sich insbesondere mit den Medien als Werbeträger. Die Mediaforschung unterscheidet redaktionelle Forschung von der für die Vermarktung der Medienprodukte wichtigen Reichweitenforschung.
119
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
offen zu sein. Was beobachten wir gegenwärtig? Neue Verfahren werden diskutiert, werden versuchsweise eingesetzt, verworfen, erneut diskutiert, überarbeitet
und verändert eingesetzt.... Es ist ein langwieriger Forschungsprozess, bis in den
zuständigen Gremien (AG.MA, AGF) über Konventionen verbindlich entschieden wird. Auch politische Faktoren beeinflussen das Geschehen. Warum sollte
das im Falle der Online-Reichweitenforschung anders sein?
Anhand von Ergebnissen, Beispielen aus der Praxis und Studienvergleichen wird
der Weg nachgezeichnet, den die Online-Mediaforschung bis Jahresende 2003
genommen hat. Ende der neunziger Jahre werden neue Online-Forschungsinstitute gegründet, und es werden Forschungsallianzen geschmiedet. Alle haben das
Ziel, eine Online-Währung zu etablieren. Die veröffentlichten Reichweitendaten
aber sorgen für Verwirrung. Denn die verschiedenen Erhebungsverfahren und
Nutzerdefinitionen führen dazu, dass nicht vergleichbare Daten erzeugt werden.
Für die Mediaplaner ist das eine Zumutung. Nach sieben Jahren Online-Forschung ist es an der Zeit, sich auf Konventionen zu einigen.
Die relevanten Online-Vermarkter, unter ihnen Access-/Content-Provider, Zeitschriften-/Zeitungsverlage und TV-Sender, haben sich 2002 in der Arbeitsgemeinschaft Online-Forschung (AGOF) zusammengeschlossen und planen, eine
große Online-Analyse auf den Markt zu bringen. Deren Mediaforscher sind
zurzeit dabei, das geeignete Instrument für künftige Online-Mediaplanung zu
entwickeln. Es ist ein ambitioniertes Projekt, das den Konsens aller Marktteilnehmer erfordert. Und es soll trotz knapper Kassen – die Online-Werbung erzielt
noch keine großen Umsätze – in naher Zukunft umgesetzt werden.
I. Möglichkeiten und Grenzen der Online-Forschung – ein erster Überblick
Verfahren und Ziele der Online-Forschung
Online-Marktforschung ist ein weites Feld. Sie umfasst alle Segmente der Marktforschung, die sich auf das Internet als Plattform beziehen. Das Internet ist auch
(Massen-)Medium. Folglich befasst sich die Medienforschung neben den klassischen Massenmedien wie Zeitungen, Zeitschriften, Fernsehen oder Hörfunk
mit dem Internet als Kommunikationsmittel. In der kommerziellen Markt-/
Mediaforschung ist das Hauptaugenmerk auf die Reichweiten konkreter OnlineWerbeträger gerichtet. Neben der Presse-, Fernseh- oder Hörerforschung gesellt
sich nun ein weiteres Forschungsgebiet hinzu, verkürzt Online-Forschung
genannt.
Online-Forschung wird in Medienunternehmen quantitativ und qualitativ-psychologisch betrieben. Ersteres repräsentativ und auf Basis hoher Fallzahlen, z.B.
120
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
durch Umfragen, Inhaltsanalysen2, Logfile-Analysen3, und Letzteres in Kleingruppen oder individualdiagnostisch, z.B. durch Gruppendiskussionen4 oder
Usability-Tests5. Umfragen dienen vor allem dem Zweck der Darstellung von
Reichweiten, Nutzerstrukturen, Einstellungen und Konsumverhalten für die Werbeplatzvermarktung. Denn nur mit Hilfe repräsentativ erhobener Daten lassen
sich über Zielgruppen allgemeingültige Aussagen machen bzw. Potenziale hochrechnen.
Ergebnisse qualitativ-psychologischer Forschung dienen in erster Linie der Optimierung von Medienprodukten (Zeitschriftentitel, Fernsehsendungen, InternetAuftritte) und damit dem redaktionellen Bereich. Sie lassen sich auch für die
Vermarktung einsetzen.
In der kommerziellen Mediaforschung spielen Reichweiten eine große Rolle.
Die Reichweite einer Tageszeitung, einer Publikumszeitschrift oder einer Fernsehsendung zeigt an, wie viele Menschen in einem Erscheinungsintervall einen
Titel oder in einem Zeitsegment welche Sender/Programme nutzen. Die Reichweite wird als Prozentanteil bezogen auf die Gesamtbevölkerung oder hochgerechnet in Tausend bzw. Millionen Leser/Seher ausgewiesen. Was im klassischen
Mediensektor seit langem Konvention ist, soll nun auch im Online-Markt Standard werden.
Reichweiten werden in repräsentativen Bevölkerungsumfragen erhoben oder im
Fall des Fernsehens in repräsentativen Panels (GfK, ACNielsen) elektronisch
gemessen. An einem normalen Tag schauen 93 Prozent der Bevölkerung Fernsehen, lesen 86 Prozent eine Tageszeitung und jeweils aktuell nutzen 93 Prozent
eine Publikumszeitschrift; soll heißen, diese Medien sind in der Bevölkerung
2
Eine Forschungsmethode, um Kommunikationsinhalte in Texten, Bildern systematisch (mithilfe
eines Kategoriensystems analog dem Fragebogen bei Umfragen) und quantitativ zu beschreiben.
Praktisches Beispiel: Websites können anhand formaler und inhaltlicher Kriterien miteinander verglichen werden (Benchmark-Analyse).
3
Bezeichnung für die gezielte Erfassung und Auswertung der Zugriffe auf einer Website. Die IVW
weist mit einem speziellen Logfile-Analyseverfahren die Visits und Page-Impressions geprüfter
Online-Angebote aus.
4
Klassische Form: Ein Moderator einer Ad-hoc-Gruppe stellt ein Thema zur Diskussion (z.B. zum
Inhalt und Layout einer Zeitschrift) und regt die Teilnehmer dazu an, persönliche Meinungen oder
Vorstellungen zu äußern und mit den anderen auszutauschen. Für die Mediaforschung dienen Gruppendiskussionen häufig als Vorbereitung für Umfragen. Es ergeben sich dabei Aussagen (Indikatoren), die dann auf empirischer Breite hinsichtlich ihrer Allgemeingültigkeit überprüft werden.
5
Probanden testen Websites. Ein Moderator stellt Aufgaben. Das Nutzungsverhalten und die
Kommentare der Probanden werden aufgezeichnet. Das Ziel eines Usability-Tests ist es, die
Schwächen einer Website aufzudecken. Der Fokus liegt dabei auf Benutzerfreundlichkeit, Navigation, Funktionalität, Verständlichkeit und Design.
121
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
weit verbreitet.6 Das Internet erreicht täglich etwa 30 Prozent der Bevölkerung.7
Der Aufwand, mittels repräsentativer Untersuchungen die Reichweiten einzelner Online-Angebote oder Channels (Unterseiten) zu erheben, ist sehr hoch und
kostet viel Geld.
Deutschlands Medienunternehmen finanzieren große medienübergreifende Reichweitenstudien wie die Media-Analyse (MA). Zeitschriftenverlage geben darüber
hinaus Markt-/Media-Studien (z.B. TdWI, VA, Dialoge, CN) heraus. TV-Sender
veröffentlichen TV-Quoten aus dem GfK-Panel und Radiosender Reichweiten
aus der Hörfunk-MA. Und zusätzlich bieten sie spezielle Markt-/Media-Planungssysteme für elektronische Medien an, z.B. die VuMA8. Die hohen
Werbeumsätze rechtfertigen diese Ausgaben.
Die Print-MA veröffentlicht alljährlich die Reichweiten von ca. 170 Zeitschriften-, überregionalen Tageszeitungs- und Wochenzeitungstiteln und macht
darüber hinaus sehr detaillierte Angaben zur Soziodemografie und über die Privathaushalte der Bevölkerung. Markt-/Media-Studien ergänzen diese Informationen mit Daten zum Mediennutzungsverhalten allgemein, zum Konsumverhalten,
über Besitz und Anschaffung von Konsumgütern, über die Verwendung von Markenprodukten, aber auch über qualitativ-psychologische Merkmale, Einstellungen und Verhaltensweisen in der Bevölkerung.
Die MA erhebt seit drei Jahren auch die Nutzung des Internet, veröffentlicht
aber keine Reichweiten in Form von Nutzungswahrscheinlichkeiten9. Verschiedene mehrthematisch angelegte Markt-/Media-Studien (AWA10, CN11, TdWI12)
gehen da einen Schritt weiter. Sie weisen zumindest für die Online-Nutzung insgesamt einen Reichweitenwert aus, z.B. den „Online-Nutzer pro Tag“. Andere
6
Eigene Auswertungen. Quellen: TdWI 2002/03 und MA Intermedia 2002.
7
Quelle: Allensbacher Computer- und Telekommunikations-Analyse ACTA 2003
8
VuMA. Verbraucher- und Medienanalyse. Hrsg. ARD-Werbung, ZDF Werbefernsehen und Radio
Marketing Service (RMS). Markt-/Media-Studie mit jährlicher Erscheinungsweise seit 1995.
9
Bezeichnet die Wahrscheinlichkeit, dass ein Mediennutzer Kontakt mit einer durchschnittlichen
Ausgabe eines Mediums hat. Detailliertere Informationen dazu unter http://medialine/focus.de. Stichworte: Eichung oder Nutzungswahrscheinlichkeit.
10
AWA. Allensbacher Werbeträger-Analyse. Hrsg.: Institut für Demoskopie Allensbach. Markt/Media-Studie mit jährlicher Erscheinungsweise seit 1959.
11
CN. Communication Networks. Markt-/Media-Studie des FOCUS Magazin Verlags.
12
TdWI. Typologie der Wünsche Intermedia. Hrsg. v. TdW Intermedia GmbH & Co. KG, Offenburg (BAC Burda Advertising Center GmbH der Hubert Burda Medien). Markt-/Media-Studie mit
jährlicher Erscheinungsweise seit 1986.
122
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Markt-/Media-Studien, die auf das Thema Computer und Internet spezialisiert
sind (ACTA13, Online–Offline, ORM14), gehen noch einen Schritt weiter und
bieten auch Reichweitendaten über Online-Angebote (Domains) an.
NetMetrix-Panels15 (NetRatings16) messen die Internet-Nutzung repräsentativ in
Privathaushalten und weisen Monatsreichweiten einer Vielzahl Websites inklusive der Unterseiten aus.
Apropos technische Messung der Online-Nutzer: Visits und Page-Impressions,
wie sie die IVW17 ausweist, sind per Definition keine Reichweiten, sondern
Kontakte. Analysiert werden die Nutzerströme (Logfiles) einer Website. Der
Online-Nutzer (Visitor) bleibt unbekannt. Unter Verwendung von Cookies18
können zumindest die Nutzungsvorgänge der Rechner bzw. Browser (Clients)
von Online-Nutzern gemessen werden. Auf diese Weise lässt sich die Spur eines
Client für eine definierte Zeit verfolgen (tracken).
Seit 1997 veröffentlicht die IVW regelmäßig die Abrufzahlen der Online-Angebote ihrer Mitglieder. Nach Einführung der Messung sind die monatlichen Zahlen
von wenigen Hunderttausend enorm gestiegen und sind zum Ende des Jahres
2001 auf 30 Milliarden Abrufe pro Monat geklettert.19 Damit die IVW mit den
Anforderungen dieses explosionsartig wachsenden Marktes Schritt halten und
weiterhin zuverlässige Vergleichszahlen über die Online-Nutzung im deutschsprachigen Raum und darüber hinaus liefern kann, ist die Umstellung auf ein
neues Messsystem notwendig geworden.
13
ACTA. Allensbacher Computer- und Telekommunikationsanalyse. Hrsg.: Institut für Demoskopie
Allensbach. Markt-/Media-Studie mit jährlicher Erscheinungsweise seit 1997.
14
ORM. Online Reichweiten Monitor. Hrsg.: Arbeitsgemeinschaft Internet Research e.V. (AGIREV).
Online-Markt-/Media-Studie als Nachfolgestudie des GfK Online-Monitors. Erscheinungsweise
halbjährlich seit 2002.
15
Bezeichnung für ein repräsentatives Online-Panel, das die Online-Nutzung seiner Teilnehmer kontinuierlich misst.
16
Nielsen/NetRatings im VNU Konzern. Anbieter eines NetMetrix-Panels in Deutschland seit Oktober 2000. NetRatings hat die Panels von MMXI und NetValue übernommen und ist damit einziger
Anbieter in Deutschland.
17
IVW. Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern e.V.
18
Seit 2002 verwendet die IVW das Skalierbare Zentrale Messverfahren (SZM-Verfahren) und setzt
den Besuchern IVW-geprüfter Online-Angebote Cookies. Im selben Jahr übernimmt INFOnline
diese Aufgabe.
19
Siehe hierzu http://www.ivw.de/news/praxis35.html
123
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Tabelle 1
Zählen und Messen von Zugriffen im Internet sind komplexe Aufgaben. Entwikkelt aus den strengen Vorgaben der IVW, bietet die INFOnline20 mit dem Skalierbaren Zentralen Messverfahren (SZM) nicht nur den Werbeträgern, sondern
allen Interessierten die Möglichkeit, über das System die Zugriffe nach einem
einheitlichen Standard zu erheben.
Die Ergebnisse des SZM sind nicht vergleichbar mit den Ergebnissen einer
traditionellen Logfile-Analyse. Traditionelle Logfile-Analysen verfälschen die
Zugriffsstatistik z.B. bei dem Einsatz von Frames. Sie weisen mehr Seitenzugriffe aus als real Inhalte-Seiten aufgerufen werden. Zwischenspeicher im
Internet oder auf den Rechnern (Proxies, Caches) verhindern zum Teil, dass
Zugriffe auf ein Online-Angebot gezählt werden. Das SZM als zentrales System
berücksichtigt die Anforderungen an effizientes Zählen und Messen.
Die Messung und Ausweisung von Visits und Page-Impressions wird nur der
Anfang sein. Vorrangiges Ziel der INFOnline ist deshalb die zügige Entwicklung
weiterer Messkriterien in Zusammenarbeit mit der IVW und den Marktpartnern.
Im Grunde genommen wissen wir viel über die Nutzung von Online-Angeboten, aber zu wenig über die Online-Nutzer und deren Nutzungsgewohnheiten.
Das SZM-Verfahren bietet die Grundlage, um mehr über den Online-Nutzer zu
erfahren. Voraussetzung hierfür ist das Setzen von permanenten Cookies, um den
Client bei jedem Besuch einer IVW-gemeldeten Site zu identifizieren und seine
Nutzung zu „tracken“, das heißt sie aufzuzeichnen und auszuwerten.
20
INFOnline. Im Jahr 2002 aus der IVW ausgegründete GmbH, Gesellschafter sind die MedienVerbände BDZV, DMMV, VDZ, VPRT und andere Verbände. Anders als die Satzung der IVW
vorschreibt, steht INFOnline auch Nichtwerbeträgern offen und darf Marktforschungsleistungen
anbieten.
124
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
IVW/INFOnline: Vom Visit zum Unique Client
Online-Tracking von Rechnern/Browsern
www.abc.de
....szmbox.de
Collector-Server
www.def.de
ivw.de
....szmbox.de
www.xyz.de
Logfiles mit IP-Adressen
Kennungen: anonyme visits
www.irgendwie.de
....szmbox.de
Quelle: IVW/InfOnline: Domainaufbau des SZM (Skalierbares zentrales Messverfahren)
Abbildung 1
Ungefähr 75 Prozent der Clients akzeptieren Cookies und können vom SZM
auch über längere Zeiträume zugeordnet werden. Etwa 20 Prozent der Clients
haben eindeutige Kennungen außerhalb der Cookies. Diese Informationen reichen aus für eine Hochrechnung. Ungefähr 5 Prozent der Clients sind nicht zuzuordnen, aber die Visits können geschätzt werden. Dies lässt einen Vergleich mit
den anderen Gruppen zu. Die SZM-Box ermittelt Cookies oder Kennungen zur
Bestimmung der Visits. Diese Kennungen der Visits werden in Listen gesammelt
und an den Collector-Server übertragen. Die Client-Informationen sind anonyme
Kennungen von „requests“, die in Listen zusammengefasst werden. Die Listen
werden an den Collector übertragen und ausgewertet. Es entsteht eine Datenbank, die einige anonyme Strukturmerkmale des Client enthält sowie Frequenzen, Verweildauer und Anzahl genutzter Angebote.
Erst durch die Verzahnung der von INFOnline erhobenen Messdaten mit Umfragen lassen sich die Ergebnisse für die Online-Mediaplanung nutzbar machen.
Online-Forschung online
Das Medium Internet entwickelte sich vom reinen Forschungsgegenstand zu
einer Forschungsplattform; soll heißen, es wird nicht nur über die Online-Nutzung geforscht, sondern das Internet dient zugleich als Instrument zur Erhebung
von Daten. Das ist ein weitgehend neuer Aspekt in der Medienforschung. Denn
125
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
dass ein Medium durch sich selbst Nutzungsdaten erhebt, kennen wir ansatzweise nur aus dem Bereich der Fernsehforschung. Das Internet ermöglicht nicht
nur die Messung der Nutzung, sondern auch die Befragung des Nutzers.
Bewährt hat sich das Internet als Forschungsinstrument in der qualitativen OnlineForschung. Gruppendiskussionen werden online durchgeführt. So genannte
quasi-biotische Labor-Experimente (zu Hause unter natürlichen Bedingungen)
oder Usability-Tests in Online-Pools sind auch für die kommerzielle Markt-/
Mediaforschung interessante Tools.21
Mit dem wichtigsten Instrument der Mediaforschung, der Erhebung repräsentativer
Daten im Internet, hat es so seine Tücken. Denn repräsentative
Bevölkerungsumfragen sind mangels hinreichender Verbreitung noch nicht
möglich. Repräsentative Umfragen unter Internet-Nutzern sind in Online(Access)-Panels möglich, wenn die Panel-Teilnehmer
a) „offline“ rekrutiert werden, also durch Telefonumfrage oder persönliche
mündliche Befragung; oder
b) online „aktiv“ rekrutiert werden, also mittels Zufallsverfahren und
anschließender Identifizierung. E-Mail-Adressen reichen hierzu nicht aus.
Die Identität wird ganz konventionell (postalisch, telefonisch, persönlich)
festgestellt.22
Nicht anders verhält es sich für ein NetMetrix-Panel, das die Online-Nutzung
auf elektronischem Wege über die Logfiles erfasst und auswertet. Für alle
Online-Panel gilt: da sich die Struktur der Online-Nutzerschaft weiterhin
ändert, muss ein Panel an die Realität ‚angepasst‘, d.h. mit Hilfe
bevölkerungsrepräsentativ durchgeführter Referenzstudien eine Personengewichtung vorgenommen werden.
Für den Anbieter einer Website bietet sich eine Alternative an, mehr über die
Struktur seiner Nutzerschaft zu erfahren. Über ein zufallsgesteuertes PopUp
(bekannt auch als NthViz-Verfahren, eingeführt von Infratest Burke) können die
Besucher online befragt werden.23
21
Kritisch setzt sich damit Heinz Grüne (rheingold Institut, Köln) auseinander in seinem Beitrag:
Online und Online-Forschung in Deutschland – eine schwierige Kombi-Nation?! In: Planung & Analyse 1/98, S. 12.
22
Vgl. Standards zur Qualitätssicherung für Online-Befragungen. Ausgabe Mai 2001. Hrsg. v. ADM
et. al. Frankfurt/Main, 2001, S. 17ff. Etwas anderer Ansicht, wie ein Online-Panel zu definieren sei,
sind Göritz, Anja; Reinhold, Nicole und Batinic, Bernad: Marktforschung mit Online-Panels: State
of the Art. In: Planung & Analyse 3/2000, S. 62–67.
23
Über die Qualitätskriterien von OnSite-Umfragen vgl. Batinic, Bernad: Der Online-Forschung
fehlen bisher eindeutige Qualitätskriterien. In: <e>MARKET_34/00 vom 25.8.2000
126
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Auf diese Weise lassen sich auch Online-Copytests durchführen. Befragt werden
hierbei Online-Nutzer zur Nutzung von redaktionellen und werblichen Inhalten
auf der Website, auf der sie kontaktiert werden. Repräsentativ sind solche
Online-Umfragen, wenn genügend kontaktierte User an der Umfrage teilnehmen. Bei konventionellen Werbeträgeranalysen sollen 70 Prozent der Stichprobe
ausgeschöpft werden.24 Diese Norm wird in der Regel bei Online-Umfragen
nicht erreicht. Inwieweit diese Norm auch für Online-Copytests gilt, ist umstritten. Die bisher vermarkteten Online-Copytests wurden jedenfalls nicht beanstandet, wenn der Begriff des Nutzers nicht auf die Definition des durchschnittlichen
Nutzers zielt (vgl. o.a. Fußnote).
Im Kapitel IV – “Reichweiten sind das A und O“ – wird auf die
Relevanz und auf die methodischen Belange des Begriffs „durchschnittlicher
Nutzer“ näher eingegangen. Vorweg so viel: Bei der Vermarktung von
Werbeträgeruntersuchungen kommt es des Öfteren zu gerichtlichen Auseinandersetzungen und rechtswirksamen Entscheidungen gegen Medienunternehmen,
wenn sie die Wettbewerbsrichtlinien nicht einhalten. Häufig sind es die verwendeten Leser-/Seher-/Nutzer-Begriffe, die auf Grund des gewählten Erhebungsverfahrens nicht durch das Wettbewerbsrecht gedeckt sind. In einer nicht
bevölkerungsrepräsentativ durchgeführten Studie darf beispielsweise der befragte
Besucher eines Online-Angebots nicht als Nutzer bezeichnet werden, weil
dies, so die Rechtsprechung, auf den durchschnittlichen Nutzer eines Angebots
schließen ließe.
Je nach Attraktivität werden Online-Angebote auch von deutschsprachigen Nutzern im Ausland genutzt, die für den hiesigen Werbemarkt irrelevant sind, mithin
in Online-Copytests, die für die Vermarktung von Online-Werbung gedacht
sind, ausgefiltert werden sollten. Dasselbe gilt für Nutzer, die Webwasher/
Werbeblocker einsetzen.
Cross-Ownership-Verhältnisse25 führen dazu, dass Medienunternehmen ihre
Werbeträger, die unter einer Marke firmieren (z.B. FOCUS, FOCUS Online,
FOCUS TV), als Crossmedia-Kombination vermarkten können. Der Nachweis
von Crossmedia-Effekten26 lässt sich sehr gut mit einem kampagnenbegleiten24
Zu der geforderten Ausschöpfungsquote und den Erhebungsbedingungen für Werbeträger-Untersuchungen vgl. ZAW. Rahmenschema für Werbeträger-Analysen. Hrsg.: Zentralverband der deutschen
Werbewirtschaft. Bonn (Edition ZAW) 1994.
25
Vgl. Gormley, William T. jr.: The Effects of Newspaper-Television Cross-Ownership on News
Homogenity. Capel Hill: University of North Carolina, 1976. Cross-Ownership-Verhältnisse auf
lokaler/regionaler Ebene führten in den USA zur Einschränkung publizistischer Vielfalt.
26
Es geht um die Steigerung der Werbewirkung. Der Crossmedia-Effekt ist spezifischer als der
Multiplying-Effekt, der in verschiedenen Studien für Mediamix-Kampagnen festgestellt wurde.
Vgl. Multiplying. Mediamix. Eine Zusammenstellung internationaler Studien zum MultiplyingEffekt, Hamburg (Axel-Springer Verlag) 1991. Vgl. Handbuch Crossmedia Werbung. Hrsg. v. Verband Deutscher Zeitschriftenverleger. Berlin (VDZ) 2003
127
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
den Online-Copytest ermitteln27, und – optimal – ergänzt durch einen offline
durchgeführten, klassischen Copytest erbringen.
Herausforderungen für die Online-Forschung
Das Dilemma der Markt-/Mediaforschung an der Schwelle der Internet-Ära
ist, dass sie mit ihren klassischen Erhebungsverfahren überfordert ist, Sachverhalte aktuell, aussagekräftig und zuverlässig erheben zu können. Das liegt
u.a. an der Komplexität der Online-Thematik. Die Internet-Nutzung ist nicht so
einfach zu erheben wie die von Zeitungen oder Zeitschriften. Selbst die Fernseh- oder Hörfunknutzung weist nicht den Grad an Komplexität auf, weil ein
überschaubares Angebot vorhanden ist.
Die hohe Innovationsgeschwindigkeit, nicht nur bei Hardware und Software,
sondern auch beim Online-Marketing und bei den Anwendungsmöglichkeiten im
Internet, erfordert rasches Reagieren der Marktforschung. Der Umfrageforscher
muss nun mit zwei Herausforderungen fertig werden. Einerseits fordert das Marketing rechtzeitig zuverlässige Daten und Potenziale über neue Märkte. Andererseits erschweren Wissensdefizite und Verständigungsprobleme die Erhebung
solcher Daten. Denn selbst erfahrene Internet-Nutzer können zu Innovationen
kaum hinreichend valide Auskünfte geben.28 Wir leben in einem „ungelernten“
Markt. Das Gros der User kennt die zumeist englisch ausgesprochenen Begriffe
oder Marken aus der Internet-Welt nicht. Ein Handicap bei Telefonumfragen.
Mithin müssen in Umfragen internetspezifische Sachverhalte erläutert oder
umschrieben werden. Fragen verständlich zu stellen, ist eine Wissenschaft für
sich. Leider mangelt es in vielen Online-Umfragen häufig an einer gescheiten
Fragebogenkonstruktion.
Ein Weiteres macht speziell der Online-Forschung zu schaffen: Die Spezies
Internet-User weiß um den Wert ihrer persönlichen Daten. Das führt zu sinkender Antwortbereitschaft, wenn freiwillig und ohne Zahlung so genannter Webmiles29 Angaben über die Person, über das Mediennutzungs- und Konsumverhalten
gemacht werden sollen. Die totale Vernetzung weckt Ängste bei den Bürgern,
dass ihre personenbezogenen Daten missbräuchlich verwendet werden („der
27
Vgl. Yellomiles. Crossmedia Case Study. Chartpräsentation. Hrsg.: Spiegel Gruppe, Hamburg
2003. Vgl. Der Multiplying Effekt: Print plus Online. Crossmedia-Studie auf Basis der TV Movie
Future Package, Hamburg (Bauer Media) o.J. (2001)
28
Vgl. Reigber, Dieter (1999): Web Nutzungsmotiv-Studie. Heavy User geben Auskunft. http://
www.interactivemedia.de/home_f/index.html im Menü: Service, Untermenü: Studien, Link: HeavyUser-Studie. Wie muss eine Website gestaltet sein, damit sie der User nutzt? Download: PowerpointDatei, 10.3.2002
29
Bonuspunkte, die bei bestimmten Anbietern eingelöst werden können
128
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
gläserne Surfer“). Die Bereitschaft, selbst an seriösen Umfragen oder Panels teilzunehmen, sinkt.
Das Hauptproblem der Online-Forschung bleibt indes die mangelnde
Repräsentativität webbasierter Erhebungen. Es genügt nicht, mal eben schnell
zigtausend Leute im Netz über einen ständig präsenten Banner einzuladen und zu
befragen und mit diesem Ergebnis Wahrheiten verkünden zu wollen. Die große
Zahl hilft nicht über die Stichprobenverzerrung hinweg.
Und es ist die mangelnde Repräsentativität der Daten, die viele Großunternehmen
Deutschlands davon abhält, bislang mehr Geld ihres Marktforschungsbudgets
für online durchgeführte Umfragen zu investieren. Und auch viele Medienunternehmen haben die Erfahrung machen müssen, dass Online-Umfragen, die
nicht den Mindestkriterien der Markt-/Mediaforschung oder den Wettbewerbsregeln entsprechen, wie sie im ZAW-Rahmenschema festgehalten sind, bei
den Mediaagenturen und Werbungtreibenden nur mäßigen Anklang finden. Die
Zeiten, als Online-Mediaplaner in den Agenturen sich mit fragwürdigen Studien
von Seiteneinsteigern der kommerziellen Umfrageforschung begnügten oder
Werbeträger mit gleichsam selbst gestrickten Zahlen über die Nutzerstruktur,
erhoben über einen Banner auf der Homepage, aufwarten konnten, sind vorbei.
Neue Wege der Online-Reichweitenforschung
Online-Marketing und Mediaplanung benötigen repräsentative Reichweitenund Strukturdaten. Sie müssen gemäß den Qualitätsstandards der Marktforschungsorganisationen (ADM30, BMV31) und der Wettbewerbshüter (ZAW32)
erhoben werden. Ohne den Einsatz konventioneller Verfahren ist dies zurzeit
nicht möglich. Dem Online-Markt stehen zwei Arten repräsentativer Online-Studien zur Verfügung: die Umfrage-Studie, also das persönliche Interview, und die
Panel-Analyse, bei denen die Teilnehmer offline rekrutiert und online befragt
bzw. elektronisch gemessen werden.
Beide Ansätze haben ihre besonderen Vorzüge. Der subjektiven Erinnerungsleistung stehen objektiv gemessene Reichweiten gegenüber. In Umfragen wird
die Internet-Nutzung insgesamt erhoben, im Panel nur die des privaten Internet-
30
ADM: Arbeitskreis deutscher Markt- und Sozialforschungsinstitute e.V.
31
BVM: Bundesverband deutscher Marktforscher
32
ZAW: Zentralverband der deutschen Werbewirtschaft. Vgl. Rahmenschema für Werbeträger-Analysen a.a.O.
129
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Zugangs.33 Viele und in die Tiefe gehende Umfragedaten oder die Konzentration
auf wenige soziodemografische Zielgruppen stehen der Online-Mediaplanung je
nach Bedarf zur Verfügung.
Welche Kriterien muss eine Online-Reichweitenstudie erfüllen, damit Marketing
und Media-Agenturen einen Nutzen für die Mediaplanung daraus ziehen? Ausgewiesen werden sollten:
• die Reichweiten von mindestens 50 der Big Player im OnlineWerbeträgermarkt;
• die Soziodemografie, vergleichbar der MA (AG.MA) und ebenso differenziert;
• das formale und inhaltliche Online-Nutzungsverhalten;
• das Konsumverhalten allgemein und im Internet;
• sowie Einstellungen und Verhalten, die als Zielgruppenmerkmale dienen
können oder zu Typologien verarbeitet werden können;
mithin umfassend genug, um zielgruppenspezifisch und differenziert Rangreihen
und Mediapläne zu erstellen.
Tabelle 2
33
Working-Panels sind nicht repräsentativ. Vgl. Reigber, Dieter und Frost, Carola: Online-Reichweitenforschung in Deutschland. In: Theobald/Dreyer/Starsetzki (Hrsg.): Online-Marktforschung. Theoretische Grundlagen und praktische Erfahrungen. 2. Auflage. Wiesbaden (Gabler) 2003, S. 126
130
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Im Jahr 1999 versuchen zwei Marktforschungsinstitute (BIK und W3B, Hamburg), eine bevölkerungsrepräsentative Online-Analyse auf dem Markt zu etablieren, die auf Grundlage einer telefonischen Rekrutierungsbefragung und
einem nachher auszufüllenden Online-Fragebogen durchgeführt werden soll.
Das Verfahren hat Charme und ist seinerzeit aus forschungsökonomischer Sicht
eine sinnvolle Lösung. Ziel ist es, Reichweiten von Online-Angeboten zu erheben. Da nicht alle rekrutierten Befragten über einen Internet-Access zu Hause
verfügen, den am Arbeitsplatz dafür nicht nutzen dürfen oder andere technische
Gründe angeben, wird ihnen als Alternative ein schriftlich auszufüllender Fragebogen angeboten. Die Institute haben nicht damit gerechnet, dass 40 Prozent
der rekrutierten Befragten nicht den Online-Fragebogen, sondern den postalisch
zusandten Fragebogen ausfüllen wollen. Ein gravierender methodischer Fehler,
wie sich später herausstellt. Bei der Datenanalyse müssen beide Institute erkennen, dass die Reichweiten in beiden Erhebungsverfahren deutlich voneinander
abweichen, so dass die Auftraggeber der Studie eine Veröffentlichung verhindern.34
Schon seit einigen Jahren ist abzusehen, dass Reichweiten für Online-Angebote
und deren Unterseiten weder differenziert in Umfragestudien abgebildet noch
umfassend in NetMetrix-Panels ausgewiesen werden können. Auf dem Worldwide Readership Research Symposium 9 in Florenz 1999 haben Reigber/Spohrer
die Erhebungsprobleme aufgezeigt und ein Kombinationsmodell aus klassischer
Umfrage und technischer Messung auf Basis der IVW-Daten und eines NetMetrix-Panels vorgeschlagen.35 Wenn die Forschungsökonomie es erlaubt, also das
Internet eine ausreichende Verbreitung in der Bevölkerung hat und die Kosten
durch die Werbeumsätze refinanziert werden können, stünden dem Online-Marketing dadurch ganz neuartige Analysen zur Verfügung. Drei Jahre später wird
die Idee von den maßgebenden Online-Vermarktern in Deutschland aufgegriffen
und soll im Jahr 2004 umgesetzt werden.
Es wird zu einer Art Symbiose mehrerer Erhebungsverfahren kommen, um die
Nutzung von Online-Werbeträgerangeboten und deren Unterseiten (Seitenkontingente, Belegungseinheiten) zeitnah darzustellen. Online „getrackte“36 Nut34
Zum Problem der Validität und Reliabilität von Online-Umfragen im Vergleich zu schriftlichen
Umfragen vgl. Batinic, Bernad: Datenqualität bei internetbasierten Umfragen. In: Theobald/Dreyer/
Starsetzki a.a.O., S. 144ff.
35
Vgl. Reigber, Dieter und Spohrer, Michael. Research Strategies in Fragmented Media Markets.
The Relevance of Practical Research Results Attained from the Teletext and Online Fields for Other
Media Sectors. Paper Hold at Worldwide Readership Research Symposium 9, Grand Hotel, Florence
(Italy), 8th November 1999. Published in Worldwide Readership Research Symposium 9. Session
Papers. Ed. BMRB International, London & Ipsos-RSL, Harrow: November 1999. pp 209–216.
36
Unter Zuhilfenahme eines permanenten Cookie auf der Festplatte des Client (Computer)
131
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
zungsdaten werden evaluiert durch Online-Befragungen und gewichtet mittels
einer Referenzumfrage, die konventionell per CATI oder CAPI durchgeführt
wird. Hierbei wird forscherisches Neuland betreten. Deshalb wird in den Gremien (AGOF37, IVW38, InfOnline, AG.MA39) um Methoden und Konventionen
gekämpft, um letztlich das Zertifikat der AG.MA zu erhalten.
So weit ein erster Überblick darüber, was sich in der Online-Forschung bis
heute getan hat und was geplant ist. Kehren wir zurück zu den Anfängen der
Online-Forschung und berichten über die Ergebnisse, die in den verschiedenen
Stadien des Forschungsprozesses publiziert wurden. Dabei werden Mittel und
Wege beschrieben, die zu mediaplanungsrelevanten Daten führen.
II. Die Anfänge der Online-Forschung
Die Online-Nutzung wurde bevölkerungsrepräsentativ erstmals 1995 erhoben
und in der „Typologie der Wünsche“40, der Markt-/Media-Studie des Verlagshauses Burda Medien, ausgewiesen. Damals wurde die Nutzung von Internet und
datex j/BTX noch getrennt abgefragt. Die ersten abonnierbaren Dienste (America Online, Europe Online, CompuServe etc.) beginnen den deutschen Markt zu
erobern. Gut eine halbe Millionen Menschen – 0,8 Prozent der Bevölkerung –
zählen im weitesten Sinne zu Online-Nutzern.
Ein Jahr später, 1996, ermittelt die „TdWI’96/97 Trend“ 2,50 Millionen Online/Internet-Nutzer. Damit erreicht das neue Medium 4,0 Prozent der deutschen
Bevölkerung. Der Purist unter den Markt-/Mediaforschern würde sagen: 4 Prozent der Deutschen haben schon mal Kontakt mit diesem Medium gehabt.
37
AGOF: Arbeitsgemeinschaft Online-Forschung. Gegründet 2002.
38
IVW: Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern e.V., zertifiziert die Nutzungsdaten (Visits, Page-Impressions) für Online-Werbeträger seit 1997.
39
AG.MA: Arbeitsgemeinschaft Media Analyse.
40
Typologie der Wünsche 95 (TdW‘95). Hrsg. v. TdW Intermedia GmbH & Co.KG, Frankfurt 1995
132
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Quelle: TdW Intermedia '96/'97 II
Tabelle 3
Online-/Internet-Nutzung
in Deutschland
1996
MediMach-Zählung 20.8.03
Gesamtbevölkerung
Fallz.
(gew.)
Gesamt
Nutzer eines Online-Dienstes oder des
Internets
Online-Nutzer, die an mindestens einem
Tag pro Woche Online-Dienste oder das
Internet nutzen
Online-Dienste, die beruflich oder privat
genutzt werden
AOL
CompuServe
Europe Online
Internet
MSN
T-Online/BTX
Sonstige Netze
Online-Dienste, die beruflich oder privat
genutzt werden
Nutzer von proprietären Online-Diensten
Nutzer des Internets
Nutzer von proprietären Online-Diensten,
die das Internet nicht nutzen
Nutzer von proprietären Online-Diensten,
die auch das Internet nutzen
Internet-Nutzer, die keinen proprietären
Online-Dienst nutzen
Online-Dienste, die beruflich oder privat
an mindestens einem Tag pro Woche
genutzt werden
Nutzer von proprietären Online-Diensten
Nutzer des Internets
Nutzer von proprietären Online-Diensten,
die das Internet nicht nutzen
Nutzer von proprietären Online-Diensten,
die auch das Internet nutzen
Internet-Nutzer, die keinen proprietären
Online-Dienst nutzen
%
Mio.
Nutzer eines OnlineDienstes oder des
Internets
Fallz.
(gew.)
%
Mio.
Online-Nutzer, die an
mindestens einem
Tag pro Woche
Online-Dienste oder
das Internet nutzen
Fallz.
(gew.)
%
Mio.
10.231
100,0
63,12
405
100,0
2,50
286
100,0
1,76
405
4,0
2,50
405
100,0
2,50
286
100,0
1,76
286
2,8
1,76
286
70,6
1,76
286
100,0
1,76
26
66
25
166
75
161
99
0,3
0,6
0,2
1,6
0,7
1,6
1,0
0,16
0,41
0,15
1,02
0,46
0,99
0,61
26
66
25
166
75
161
99
6,4
16,3
6,1
41,0
18,5
39,7
24,5
0,16
0,41
0,15
1,02
0,46
0,99
0,61
17
48
19
146
50
135
34
6,1
16,7
6,5
51,0
17,3
47,1
11,9
0,11
0,29
0,12
0,90
0,31
0,83
0,21
328
166
3,2
1,6
2,02
1,02
328
166
81,1
41,0
2,02
1,02
218
146
76,4
51,0
1,35
0,90
239
2,3
1,47
239
59,0
1,47
140
49,0
0,86
89
0,9
0,55
89
22,1
0,55
78
27,4
0,48
77
0,7
0,47
77
18,9
0,47
67
23,6
0,42
218
146
2,1
1,4
1,35
0,90
218
146
54,0
36,0
1,35
0,90
218
146
76,4
51,0
1,35
0,90
140
1,4
0,86
140
34,6
0,86
140
49,0
0,86
78
0,8
0,48
78
19,3
0,48
78
27,4
0,48
67
0,7
0,42
67
16,7
0,42
67
23,6
0,42
Tabelle 3
Schaut man sich die Nutzerdaten genauer an, dann sind es 1,76 Millionen
Bundesbürger (2,8 Prozent der Bevölkerung), die mindestens einmal pro Woche
online sind. Und vorrangig werden proprietäre Online-Dienste, d.h. Access-Provider mit eigenständiger, nicht-WWW-basierter Technologie und redaktionellem Angebot genutzt. Weniger wird das Internet selbst mit seinen zumeist frei
zugänglichen Angeboten aufgesucht. Vielen Nutzern des neuen Mediums sind
Begriffe wie Internet oder „World Wide Web“ noch nicht geläufig, und sie wissen
nicht, dass sie über ihren abonnierten Provider Angebote im Internet nutzen. Nur
die wenigen „Early Adopter“ bzw. „Internet-Freaks“ haben genügend Kenntnisse
über die Internet-Technologie und können darüber Auskunft geben. Insofern ist
es nicht sinnvoll, in Bevölkerungsumfragen zu (technischen) Innovationen bis
ins Detail gehende Fragen zu stellen, ohne hinreichende Erläuterungen anzubieten.41
41
Vgl. Reigber, Dieter (1999): Web Nutzungsmotiv-Studie. Heavy User geben Auskunft. http://
www.interactivemedia.de/home_f/index.html im Menü: Service, Untermenü: Studien, Link: HeavyUser-Studie. Wie muss eine Website gestaltet sein, damit sie der User nutzt? Download: PowerpointDatei, 10.3.2002
133
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Reichweiten einzelner Online-Anbieter sind 1995/96 weniger von Interesse; die
Reichweite der Mediengattung schon eher. Einige namhafte Institute und Analysten sagen auf Grund von Umfragen unter Experten einen wirtschaftlichen Boom
für die Internet-Branche voraus. Was wir von Prognosen zu halten haben, wissen
wir heute – acht Jahre später – nur zu gut.
Entwicklung und Einführung neuer Kommunikationstechniken werden zumeist
aus der Perspektive der Technik, des Marketings und der Medien diskutiert. Es
geht also um das technisch Machbare, es geht um ökonomische Vorteile, und es
geht um neue Geschäftsfelder in der Medienindustrie. Der Nutzer, der Anwender neuer Kommunikationstechniken spielt dabei allenfalls am Rande eine
Rolle. Meist zieht man Schlüsse aus dem Verhalten der „Early Adopter“. Man
spricht von Potenzialen und wie die „kritische Masse“42 schnell zu erzielen
sei. Weniger dagegen wird aus der Perspektive der Nutzer argumentiert.
Soziale und psychologische Belange sind selten Thema solcher Expertenrunden. Drei bevölkerungsrepräsentative Markt-/Media-Untersuchungen: „Communication Networks“ (1996), „Online – Offline“ (1997) und die „ACTA’97“
haben sich dieses „Karrierethemas“43 angenommen. Trotz der unterschiedlichen
Untersuchungsansätze kommen die drei Studien zu ähnlichen Ergebnissen.
Die FOCUS-Studie „Communication Networks“44, durchgeführt August/
September 1995, liefert einen prognostischen Ansatz, wobei mit den Methoden
der psychologischen Diagnostik45 bevölkerungsrepräsentative Daten zur Akzeptanz, Erwartung und Zukunftsfähigkeit von modernen Anwendungsbereichen
digitaler Technologie erhoben wurden. Mithilfe der Szenario-Technik (Bildvorlagen mit Erläuterungen) wurden 15 zukünftig-alltägliche als auch gegenwärtigkonventionelle Kommunikationssituationen gezeigt und gefragt, inwieweit eine
dargestellte Situation angenehme oder unangenehme Gefühle (6er-Skala) hervorruft und ob die Kommunikationstechnik gegenwärtig oder zukünftig genutzt
werden würde.
42
„Wie viele Menschen müssen (welche kritische Masse muss) ein neues Verhalten, ein neues Produkt oder eine neue Einstellung übernehmen, damit auch die Allgemeinheit sie akzeptiert?“ Vgl.
Aburdene, Patricia & Naisbitt, John: Megatrends: Frauen, Düsseldorf (ECON) 1993, S. 13ff.
43
„Ein Thema wie... ist nicht ein Eigenprodukt der Massenmedien. Es wird von ihnen aufgegriffen,
dann aber in einer Weise behandelt und einer Themenkarriere ausgesetzt, die ... sich aus der Kommunikation nicht erklären lässt.“ Vgl. Luhmann, Niklas: Die Realität der Massenmedien. Opladen
(Westdeutscher Verlag) 1995, S. 28.
44
Communication Networks. Hrsg. v. FOCUS Magazin Verlag, München 1996.
45
Zum Einsatz psychologischer Diagnostik in empirischen Breitenuntersuchungen vgl. Ring, Erp:
Signale der Gesellschaft. Psychologische Diagnostik in der Umfrageforschung. Göttingen, Stuttgart:
Verlag für Angewandte Psychologie (Hogrefe), 1992.
134
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Abbildung 2
Szenario 1 Banking
Abbildung 3
Szenario 3 Cyberspace
Von den Szenarien mit moderner Kommunikationstechnologie erhielt die Option
der beruflichen Nutzung eines Computers46 die größte Sympathie. Autofahren
mithilfe des Navigationscomputers gilt 1995 noch als Vision. Aber 38 Prozent
der Bundesbürger stufen die Nutzungsmöglichkeit als sympathische Kommunikationstechnik ein. 28 Prozent finden es attraktiv, Online-Dienste nutzen zu
können, und 19 Prozent sind begeistert vom Szenario eines „Global Village“ im
Internet, also „Gesprächspartner in der ganzen Welt zu finden zum Austausch
von Informationen“. Heute nennt man so etwas „Chatten“ oder an „Newsgroups“
teilnehmen. 37 Prozent sprechen sich eher gegen diese weltweite Kommunikation via Internet aus.
27 Prozent erkennen die Vorteile im Online-Shopping, obwohl E-Commerce
B-to-C noch so gut wie unbekannt ist. Schon ein Drittel sieht für sich den positiven Nutzen von Online-Banking, das heute zu den am meisten genutzten Funktionen im Internet zählt. Der Cyberspace, also die virtuelle Welt mit Datenhelm
und -handschuh gleichsam hautnah zu erleben, wird eher beargwöhnt. Für 13
Prozent der 14- bis 64-jährigen Bundesbürger ist dies im Jahr 1995 ein positives
Szenario der Zukunft; für über die Hälfte dagegen ein negatives.
Auch die totale Hingabe an die modernen Kommunikationstechniken, wie im
Szenario „Abtauchen“ präsentiert, wird eher kritisch betrachtet. Der Bücherwurm
46
Szenario „PC im Job“ Stufe 1+2 einer 6er-Skala = bereitet angenehmes Gefühl: 40,4 Prozent
135
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
ist gesellschaftlich akzeptiert; der Computer-Freak dagegen nicht. Das „FlowErlebnis“47 bei der Arbeit am Computer hat in der Gesellschaft nicht denselben
Stellenwert wie bei anderen schöpferischen Tätigkeiten. Spätere Untersuchungen48 werden zeigen, dass die Tätigkeit am Computer als Herausforderung gesehen wird, die, mit den eigenen Fähigkeiten abgestimmt, die Komplexität unseres
Gehirns erhöht. Online-/Internet-Nutzer sind prädestiniert, „Flow“ zu erleben.
Quelle: Communication Networks I (1996);
Befragungszeitraum: August/September 1995
14 bis 64jährige Bevölkerung
Tabelle 4
Kommunikationssituationen /-szenarien
Die dargestellte Situation ruft hervor ...
angenehme Gefühle
(Stufe 1+2)
%
Gesamt (n = 8.149)
Mio.
unangenehme
Gefühle
(Stufe 5+6)
%
Mio.
100,0
50,95
100,0
50,95
PC im Job:
Im heutigen Berufsleben gehört der Computer wie selbstverständlich dazu. ...
40,4
20,60
20,6
10,50
Navigation:
Mein Navigationscomputer im Auto enthält alle Stadtpläne ..., so dass ich mich ...
zu jeder gewünschten Adresse lotsen lassen kann.
38,4
19,59
24,7
12,61
Daily Help:
Die neuen Technologien sind nützliche Hilfen im Alltag, wie z.B. Mobiltelefon,
Fax, ..., mit deren Hilfe ich einfacher und schneller kommunizieren kann.
37,7
19,21
17,4
8,86
Banking:
Die meisten Bankgeschäfte kann ich außerhalb der Schalterstunden mit dem
Telefon oder dem PC bewältigen....
33,9
17,26
25,2
12,83
Geselligkeit:
... sich mit Freunden zu geselligen Spielen am Computer zu treffen, gemeinsam
in neue Programme einzusteigen und knifflige Aufgaben zu lösen.
31,2
15,92
31,0
15,81
Personal Assistant:
Der PC ist der persönliche Sekretär. Er speichert alle wichtigen Daten, erinnert
an Termine und übernimmt zukünftig sogar kleinere Routinejobs.
28,9
14,73
25,7
13,09
Moderne Bibliothek:
Aus Online-Diensten kann man sich mit dem PC Informationen und Daten aus
aller Welt beschaffen. So wird der PC zur Bibliothek.
27,5
14,02
25,6
13,04
Entertainment:
Über Glasfaserkabel, Computer .... kann man sich ein breites
Unterhaltungsangebot ... ins Haus holen. ...
26,9
13,72
30,5
15,53
Home Shopping:
... mit dem PC rund um die Uhr einkaufen. ... über Urlaubsangebote informieren
und direkt buchen, Kleider, Bücher und andere Waren bestellen.
26,7
13,60
33,5
17,05
Multimedia im Job:
Im Büro über PC weltweit Datenbanken nutzen oder über
Videokonferenzschaltung mit Geschäftspartnern in Kontakt treten ....
24,8
12,65
28,9
14,74
Global Village:
Über Computer Gesprächspartner aus der ganzen Welt finden zur Unterhaltung
und zum Austausch von Informationen aus den unterschiedlichsten Bereichen.
19,3
9,83
36,6
18,64
Abtauchen:
An einem PC kann man so richtig abtauchen, nur mit sich selbst beschäftigt sein,
ohne jemand zu vermissen.
14,7
7,51
46,2
23,55
Cyberspace:
Mit Cyberspace die Welten virtuell erleben, die sonst nicht zugänglich sind oder
es noch nicht gibt. ... Helm mit eingebautem Bildschirm und einem
Datenhandschuh Dinge anfassen, durch Räume gehen, spielen ...
13,1
6,69
54,4
27,72
Tabelle 4
47
Csikszentmihalyi, Mihaly: Das Flow-Erlebnis. Jenseits von Angst und Langeweile: im Tun aufgehen. Stuttgart (Klett-Cotta) 1991. (Originalausgabe: Beyond Boredom and Anxiety – the Experience
of Play in Work and Games. San Francisco, Washington, London (Jossey-Bass-Publishers) 1975.)
48
Vgl. Nowak, Thomas P., Hoffman, Donna L.: Measuring the Flow Construct in Online Environments:
A Structural Modeling Approach. Project 2000, Owen Graduate School of Management, Vanderbilt
University, Yiu-Fai Yung, L.L. Thurstone Psychometric Laboratory, UNC Chapel Hill, May 1998.
Vgl. Wenzel, Olaf: Webdesign, Informationssuche und Flow. Nutzerverhalten auf unterschiedlich
strukturierten Websites. Reihe: Electronic Commerce; 6. Lohmar, Köln (Josef Eul Verlag) 2001.
Vgl. auch http://www.abseits.de/interaktiv.htm (28.8.2003).
136
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Der innovative Szenario-Ansatz von „Communication Networks“ gibt den Strategen der Internet-Branche deutliche Hinweise zur Akzeptanz zukünftig relevanter Techniken und – trotz hoher Innovationsgeschwindigkeit – auch zu
den Zeiträumen, bis die „kritische Masse“ erreicht ist. Auch aus den beiden
anderen, 1997 veröffentlichten Markt-/Media-Analysen „Online – Offline“ und
„ACTA‘97“ lassen sich Ergebnisse zur Bekanntheit und Nutzungsbereitschaft
einzelner moderner Kommunikationstechniken für Prognosen heranziehen.
In der Spiegel-Studie „Online – Offline“49, durchgeführt Mai/Juni1996, wird warnend gefragt, ob die Verbraucher die Entwicklung in die neue Medienwelt mittragen werden. Die Umfrageergebnisse über die Nutzungsbereitschaft moderner
Kommunikationstechniken sorgen für Dämpfer und legen die Hypothese nahe,
dass sich die Gewohnheiten der Konsumenten längst nicht so schnell ändern
wie die Medientechnologie.50 Ein weiterer wichtiger Bestandteil der Studie ist
die Identifizierung und Beschreibung von Nutzertypen im Markt der Informations- und Kommunikationstechnologie. In der befragten Grundgesamtheit der
18- bis 64-Jährigen voll Berufstätigen oder in Ausbildung Befindlichen51 stehen
den „Versierten“ (20 %), „Begeisterten“ (15 %) und „Pragmatikern“ (22 %) fast
zur Hälfte zwei Gruppen gegenüber, die zum Typ „Desinteressierte“ (16 %) oder
„Ängstliche“ (27 %) gehören. Aus diesen Daten hätten Strategen ablesen können,
dass selbst in der hochaffinen Zielgruppe (vgl. Fußnote) Vorbehalte bestehen.
Andererseits gebe es zu Pessimismus keinen Anlass, so die Kommentatorin der
Studie. Die Online-Dienste verzeichnen wachsende Nutzerzahlen. 13 Prozent
der Zielgruppe nutzent beruflich oder privat einen Online-Dienst.
In der vom Institut für Demoskopie Allensbach durchgeführten „Allensbacher
Computer- und Telekommunikationsanalyse“ (ACTA‘97)52, Befragungszeitraum
Februar bis August 1997, werden für die 14- bis 54-jährige Bevölkerung (40,10
Mio.) gut 10 Prozent Online-/Internet-Nutzer (3,90 Mio.) ausgewiesen. Auch
hier werden dem aufmerksamen Internet-Analysten und Marketingstrategen eine
Vielzahl Daten zum Kompetenz- und Interessenshorizont angeboten, die, wenn
nicht durch die „rosarote Brille“ betrachtet, für eine vorsichtig abgestimmte Vorgehensweise im Marketing hätten führen müssen.
49
Online – Offline. Hrsg.: Spiegel-Verlag 1997.
50
Vgl. Holzhauer, Brigitte: Wahrnehmung und Akzeptanz der neuen I- und K-Technologien. In:
Online – Offline. Hrsg. v. Spiegel-Verlag, Hamburg 1997, S. 55–69.
51
Grundgesamtheit der Studie „Online–Offline“ (1997) sind die bundesdeutsche Bevölkerung im
Alter von 18 bis 64 Jahre, die voll berufstätig sind oder sich in Ausbildung befinden.
52
Allensbacher Computer- und Telekommunikations-Analyse, ACTA‘97. Hrsg. v. Institut für Demoskopie Allensbach 1997.
137
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
So weit zu den Anfängen bevölkerungsrepräsentativer Online-Forschung in
Deutschland. Aus heutiger Sicht mögen solche Ergebnisse eher von historischem Interesse sein, aber sie zeigen uns auch, dass wir in einer Gesellschaft
mit hoher Innovationsgeschwindigkeit leben. Und dass sich mit den Mitteln
der empirischen Sozialforschung sehr wohl abschätzen lässt, ob sich Techniken
oder in unserem Fall kommunikative Anwendungen oder Situationen durchsetzen werden.
Auch wenn die Daten für die Mediaplaner in den Agenturen keine hinreichenden Aussagen über die Reichweite des Online-Mediums und seiner Angebote
machen, so sind die ausgewiesenen Potenziale für die Werbebranche wichtig
gewesen. Profitiert haben davon anfangs die klassischen Medien. Alle genannten Studien weisen Reichweiten für Zeitschriften, Zeitungen und TV-Sender aus.
Die Media-Agenturen können in Rangreihen „online-affine“ Titel/Sender ermitteln und mit Werbekampagnen belegen. Werbung online zu planen, gründet sich
– übrigens bis heute – auf die agentureigenen „Learnings“.
Im Gegensatz zur „Typologie der Wünsche“, die als Markt-/Media-Analyse fungiert und vorrangig die Printmediennutzung, viele Kernzielgruppen und Typologien ausweist und eine Vielzahl von Märkten bedient, wobei die Online-Nutzung
eben nur eines unter vielen Themen ist, sind „Communication Networks“,
„ACTA“ und „Online – Offline“ auf den Multimedia-Bereich spezialisiert.
Die erste monothematisch auf die Online-Branche bezogene Untersuchung53,
die bevölkerungsrepräsentativ mit hinreichend hoher Fallzahl (Stichprobe:
10 341 Personen) angelegt ist, wurde von November 1997 bis Januar 1998
durchgeführt: der GfK Online-Monitor. Die Erhebung wird künftig zweimal
jährlich durchgeführt und in den folgenden Jahren – bis zu seiner Ablösung
2001 durch den Online Reichweiten-Monitor (ORM)54 – die Währung im OnlineMarkt sein.
Der GfK Online-Monitor wird telefonisch (CATI) erhoben, wie auch (bis heute)
die Online-Studie @facts vom Institut Forsa im Auftrag von SevenOne Interactive. Das hat vor allem forschungsökonomische Gründe. Denn mit Telefonumfragen lassen sich relativ schnell große Stichproben bewältigen. Ihre Eignung für
die Erhebung von Reichweiten ist dagegen umstritten. Dieser Umstand führt im
53
Die eigentlich erste, bereits im März/April 1997 durchgeführte und im September publizierte ARDOnline-Studie hat mit einer Stichprobe von 1003 Befragten nur eine begrenzte Aussagekraft für den
Online-Markt.
54
Hrsg. v. Arbeitsgemeinschaft Internet Research e.V. AGIREV. Die Auftraggeber des GfK OnlineMonitors haben sich in einem Verein zusammengeschlossen, um mit nahezu gleichem Fragenprogramm und Online-Nutzer-Definition die Untersuchung mit dem Erhebungsverfahren CAPI
(Computer Assisted Personal Interviews) fortzuführen.
138
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Jahr 2001 dazu, den Online Reichweiten-Monitor im CAPI-Verfahren (Face-toface-Interview mit Fragebogen im Notebook) durchzuführen.
Trend: Online-/Internet-Nutzung 1997 bis 2001
Reichweitenentwicklung/Zuwachsraten seit Beginn des GfK Online-Monitors
14 - 59 Jahre
+34%
60 - 69 Jahre
46 %
+14%
+43%
34 %
+28%
+42%
30 %
25 %
19 %
+36%
14 %
10 %
4,4
Mio
6,0
Mio
8,4
Mio
10,8
Mio
15,9
Mio
18,0
Mio
24,2
Mio
1997/98
Mitte 1998
1998/99
Mitte 1999
1999/2000
Mitte 2000
2000/2001
Quelle: GfK Online-Monitor 1. bis 7. Welle, 1997/98 bis 2000/2001, deutschsprachige Bevölkerung in Privathaushalten mit Telefonbesitz
Abbildung 4
III. Definition des Online-Nutzers
Die in der Grafik aufgezeigte Reichweitenentwicklung schließt alle Personen
ein, die Online-Dienste oder das Internet gelegentlich nutzen. Und damit stoßen
wir schon auf das erste Problem der Online-Forschung der ersten Jahre. Wie wird
der Online-/Internet-Nutzer definiert? Jedes Marktforschungsinstitut hat da so
seine eigenen Vorstellungen. Deshalb weichen die Potenziale – abgesehen vom
Einfluss des eingesetzten Erhebungsverfahrens55 und der Personengewichtung56
– deutlich von einander ab.
55
Beim Erhebungsverfahren CATI (Computer Assisted Telephone Interviews) werden in der Stichprobe die jüngeren, gebildeteren und mobilen Menschen „besser“ ausgeschöpft als mit „paper and
pencil“ (mündlich persönlich) durchgeführten Studien. Vgl. Mosmann, Helmut: PAPI – CAPI –
CATI: Ambivalenter technischer Fortschritt in der Datenerhebung. In: planung & analyse 1/99,
S. 50–55
56
„Wenn, wie im Falle der CATI-Stichprobe nachweibar, der Auswahleffekt auch bei soziodemografischen Merkmalen ... zu Abweichungen von der Grundgesamtheit führt, kann dies durch Gewichtung
formal ausgeglichen werden. Die dahinter stehenden ursächlichen psychostrukturellen Stichprobendefizite werden damit aber nicht behoben.“ Mosmann, Helmut: a.a.O., S. 50.
Zudem erzeugen unterschiedliche Gewichtungsvorgaben, ob Größe der Grundgesamtheit oder zu
gewichtende Markmale, unterschiedliche Potenziale. Nach Konvention werden Personen befragt, die
in Privathaushalten leben, und nicht die gesamte Bevölkerung (z.B. inklusive Heiminsassen). Telefonumfragen sollten den Telefonbesitz (Festnetz) im Haushalt als Gewichtungsmerkmal einbeziehen
und auch den Bildungsabschluss.
139
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Tabelle 5
Die Resonanz in der Fachpresse ist dementsprechend. „Mehr Fragen als Antworten“, titelt W&V 16/98. „Zwar beleuchten viele Studien die Netzgemeinde. Aber
alle haben mit methodischen Schwierigkeiten zu kämpfen“, heißt es weiter. Der
New Media Report 9/98 beschreibt die Situation als „Statistik und Wahrheit“,
und gibt Hinweise, worauf die Entscheider beim Umgang mit Statistiken achten
sollen. Und für Media & Marketing 7/98 fehlen noch immer wichtige Nutzerdaten. Die Daten überzeugen nicht und werden als wenig glaubwürdig geziehen.
In den meisten Untersuchungen wird ohne Einleitung und ganz pauschal nach
der Online- oder Internet-Nutzung gefragt, und zudem oft ohne zeitliche Eingrenzung.
Typische Eingangsfragestellungen sind:
„Nutzen Sie das Internet?“
„Nutzen Sie das Internet oder Online-Dienste?“
„Nutzen Sie das Internet oder Online-Dienst zumindest gelegentlich?“
„Haben Sie das Internet oder Online-Dienste in den letzten 12 Monaten
genutzt?“
„Nutzen Sie das World Wide Web?
Verstehen die Befragten überhaupt, was mit den Begriffen Online-Dienst, Internet
oder World Wide Web gemeint ist? Und kommt es da nicht zu Fehleinschätzungen
oder auch zu Missverständnissen? Online-Nutzung ist in diesen Fällen ein weites
Feld. Denn in die Zielgruppendefinition werden der 14-Jährige, der mal eben im
140
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Kaufhaus den kostenfreien Internet-Access ausprobiert, einbezogen, als auch die
Sekretärin, die im unternehmenseigenen Intranet recherchiert, oder der Btx’ler,
der ausschließlich Online-Banking betreibt. Techniken werden in der Regel nicht
zuvor erläutert, weil dies im Interview, bedingt durch die Interviewsituation (z.B.
in Telefonumfragen), zu viel Zeit in Anspruch nimmt und den Interviewverlauf
hemmt. Es bieten sich verschiedene Wege an, Befragte in die Situation einer solchen Frage einzuführen. Da wird zu Beginn des Interviews nach der Bekanntheit von vielerlei Begriffen aus der modernen Kommunikationstechnik gefragt
(ACTA, Online – Offline). Oder es werden Fragen zum Computer vorangestellt,
wobei die Nichtnutzer wegfiltert werden.
Der GfK Online-Monitor wählt ein zweistufiges Filtermodell zur Ermittlung des
Online-/Internet-Nutzers. Zuerst wird die Zugangsmöglichkeit für verschiedene
Standorte (zu Hause, am Arbeitsplatz oder Ausbildungsplatz, unterwegs usw.)
erfragt57 und dann für jeden infrage kommenden Internet-Zugang die zumindest
gelegentliche Nutzung58 ermittelt.
Die Fragestellungen lauten:
„Haben Sie persönlich, zu Hause oder außer Haus, die Möglichkeit, in das
Internet zu gehen oder einen Online-Dienst zu nutzen? Ich lese Ihnen jetzt verschiedene Möglichkeiten vor, und Sie sagen mir bitte, ob Sie persönlich diese
Möglichkeiten nutzen können, um in das Internet zu gehen oder einen OnlineDienst zu nutzen.“
Antwortvorgaben: zu Hause; am Arbeits-/beruflichen Ausbildungsplatz; in der
Schule bzw. an der Universität; an öffentlichen Orten, z.B. im Internetcafé oder
an Multimedia-Terminals; unterwegs, z.B. über ein WAP-Handy oder über ein
Handy in Verbindung mit einem Laptop oder Notebook; bei Freunden oder Verwandten.
„Nutzen Sie persönlich die Möglichkeit, ... (am jeweiligen Ort) ins Internet zu
gehen, zumindest gelegentlich?
Ab der 2. Welle im ORM: „Haben Sie persönlich in den letzten zwölf Monaten
... (am jeweiligen Ort) das Internet oder einen Online-Dienst genutzt?“
Dieser „weichere“ Einstieg führt nach Auffassung der Medienforscher zu geringerer sozialer Erwünschtheit und damit zu realistischeren Ergebnissen. Durch
das Filtermodell wird der Online-Nutzer im GfK-Online-Monitor und später
57
Fragestellung: „Haben Sie persönlich zu Hause oder außer Haus (am Arbeitsplatz ...) die
Möglichkeit, in das Internet zu gehen oder Online-Dienste zu nutzen?“
58
Fragestellung: „Nutzen Sie die Möglichkeit ... (jeweiliger Ort) ins Internet zu gehen oder OnlineDienste zu nutzen, zumindest gelegentlich?“
141
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
auch im Online Reichweiten-Monitor (ORM) konkreter und strenger definiert als
in anderen Studien.
Anschließend wird die letzte Online-/Internet-Sitzung vergleichbar dem in der
Printmedienforschung bewährten Zeitfiltermodell ermittelt.59 Es entstammt der
Media-Analyse (MA) und ist im Arbeitskreis Online der AG.MA als Grundlage
für die Bestimmung von Reichweiten empfohlen worden. Das MA-Modell wird
auch von der Online-Studie @facts60 eingesetzt. In ähnlicher Form wird es von
Communication Networks (CN) und der Typologie der Wünsche (TdWI) verwendet, wobei hier der Weiteste Online-Nutzerkreis auf die letzten 14 Tage eingegrenzt ist. Das Institut für Demoskopie Allensbach wählt für die ACTA das
Filtermodell der AWA, das für den Weitesten Nutzerkreis keine zeitliche Eingrenzung vorsieht.
Abbildung 5
59
Das MA-Modell wird analog auch für die Ermittlung der Nutzung von Online-Angeboten
(Domains) eingesetzt. Das Modell bildet die Grundlage für die Darstellung von Reichweiten, die zu
Nutzungswahrscheinlichkeiten (p-Werte) verrechnet werden.
60
ohne dass die Daten zu Nutzungswahrscheinlichkeiten verrechnet und publiziert werden.
142
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Seit dem Jahr 2000 weisen einige Studien die Reichweite für den „Online-Nutzer
pro Tag“ aus. Auf Grund der unterschiedlichen Erhebungs- und Gewichtungsverfahren, der unterschiedlichen Definition des Online-Nutzers und des gewählten
Weitesten Nutzerkreises unterscheiden sich die Anteile und die Hochrechnung
für die Online-Nutzung.
Abbildung 6
Zugegeben, es ist unbefriedigend, wenn unterschiedliche Potenziale für den
„Online-Nutzer pro Tag“ veröffentlicht werden. Bis heute haben sich die
Herausgeber der Studien nicht auf Konventionen einigen können. Da mag
man keiner Studie Glauben schenken, wie im Jahre 1998, als die ersten
bevölkerungsrepräsentativen Daten veröffentlich wurden. Und für die Mediaplanung sind das keine idealen Voraussetzungen. Welche Zahlen stimmen denn
nun? Welche Studie soll in welchem Fall genutzt werden?
In vielen Media-Agenturen hat der GfK Online-Monitor und später der Online
Reichweiten-Monitor den Charakter einer Währung erhalten. Das liegt nicht nur
an der Untersuchungsanlage, sondern auch an der freien Zugänglichkeit zu den
Daten61.
61
Auf www.agirev.de sowie www.media.spiegel.de können Codeplan und Fragebogen eingesehen
sowie mit einem Zählprogramm kostenfrei Auswertungen durchgeführt werden. Die fallzahlgrößte
kontinuierlich durchgeführte Studie @facts (10 000 Interviews pro Monat) von SevenOne Interactive
steht nur Lizenznehmern zur Verfügung. Auch der Fragebogen und die Datenlage sind öffentlich
nicht zugänglich.
143
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Jede der o.g. Studien erfüllt eine andere Funktion und sollte nicht nur auf die
Ergebnisse zur Online-Nutzung reduziert werden. Im Vordergrund stehen in
ACTA, CN und TdWI Daten über Märkte und andere Mediengattungen.
IV. Reichweiten sind das A und O
In der Werbeträgerforschung bezieht sich der Begriff Reichweite auf den durchschnittlichen Nutzer eines Angebots. Das muss im Falle des „Nutzers pro
Woche“ nicht unbedingt nur der Befragte sein, der angibt, in diesem Zeitraum
ein Angebot genutzt zu haben. Sondern es gehört auch der Online-User dazu,
der angibt, in der letzten Woche das Angebot nicht genutzt zu haben, aber ansonsten regelmäßig „online geht“. Deshalb werden Nutzeranteile zu Nutzungswahrscheinlichkeiten (p-Werten) verrechnet. Der Wert entsteht aus der rechnerischen
Gewichtung der Nutzer im Weitesten Online-Nutzerkreis (WNK) in den einzelnen Frequenzklassen (Nutzungshäufigkeit pro Woche). Dabei wird ein Segmentationsverfahren eingesetzt, um soziodemografische Verzerrungen zu vermeiden.
Aus dem Anteil der „Nutzer in der letzten Woche“ entsteht so der „Nutzer pro
Woche“. Die Nutzungswahrscheinlichkeit drückt aus, mit welcher Wahrscheinlichkeit ein Online-Nutzer in diesem Nutzungsintervall das Internet oder OnlineDienste bzw. ein Online-Werbeträgerangebot besucht hat. Die Verrechnung zur
Nutzungswahrscheinlichkeit optimiert die Abbildung des Nutzungsverhaltens.
Nutzungswahrscheinlichkeiten sind konstitutiv für die Mediaplanung. Nutzeranteile oder Hochrechnungen, die nicht als Nutzungswahrscheinlichkeit verarbeitet
worden sind, haben für die Mediaplanung nicht denselben Stellenwert.
Erst seit wenigen Jahren weisen einige Studien auch Reichweiten für OnlineAngebote aus (vgl. Tabelle 6). Die Ausweisungskriterien für Printtitel in der
Media-Analyse (MA) sind: Mindestens 351 ungewichtete Fälle im Weitesten
Nutzerkreis und zusätzlich mindestens 80 Fälle im letzten Erscheinungsintervall. Hätte im Jahr 1997 auf der Grundlage der MA-Regeln eine Studie OnlineAngebote auf Basis „Nutzer pro Woche“ ausweisen wollen, dann hätten sich
z.B. www.spiegel.de oder www.bild.de nur qualifizieren können, wenn die
Stichprobe 20 000 Interviews umfasste. Wollte man www.zeit.de abbilden,
wären 50 000 Interviews durchzuführen. Allenfalls die großen Access-Provider
und einige Suchmaschinen haben sich qualifizieren können. Es ist seinerzeit
forschungsökonomisch nicht sinnvoll gewesen, eine solche Studie
durchzuführen.
Die ACTA 1998 veröffentlicht Reichweiten auf Basis „Nutzer pro Woche“ für
20 Online-Angebote und sorgt damit für einigen Wirbel. Die Ausweisung ist nur
möglich auf Grund des zeitlich nicht begrenzten Weitesten Nutzerkreises. Kritisiert werden die geringen Fallzahlen der Reichweiten vieler Online-Angebote
144
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
(z.B. Bild Online n = 37 Fälle oder Stern Online n = 28 Fälle) und dass die Reichweiten von Online-Angeboten der Computer- und Wirtschaftspresse nicht mit
den Daten der IVW Online-Statistik korrespondieren. Da stehen deutlich mehr
Nutzer wenigen Besuchen (Visits) gegenüber. Ganz krass ist das Beispiel WirtschaftsWoche Internet (www.wiwo.de). Vergleicht man für WirtschaftsWoche
Internet die technisch gemessenen Visits mit der hochgerechneten Reichweite,
säßen im Durchschnitt vier Online-Nutzer gemeinsam vor einem Bildschirm.
Denn wie sonst ist es vorstellbar, dass WirtschaftsWoche Internet 233 000 Nutzer
pro Woche hat, die aber nur 60 000 Visits erzeugen (vgl. Abbildung 7)?
Das Argument der ACTA-Verantwortlichen, die Kritiker haben die Problematik
von „Proxy-Servern“, lokaler „Cache-Speicher“ und „Firewalls“ – WirtschaftWoche Internet werde vor allem am Arbeitsplatz genutzt – nicht berücksichtigt,
verliert an Gewicht. Denn es treten auch die umgekehrten Verhältnisse auf,
dass die Reichweite von Online-Angeboten (Bild Online, Stern Online) deutlich unterschätzt wird. Hier liegen Image-Effekte vor, auf die noch einzugehen
sein wird. Die Reichweiten für TV Spielfilm sind nicht vergleichbar. Die ACTA
erhebt die Nutzung des Online-Angebots (Domain) und die IVW das Portal TV
Spielfilm Network.
Abbildung 7
Dennoch ist es der ACTA zu verdanken, die Vorreiterrolle übernommen zu
haben. Auch in den Folgejahren zeichnet sich die Studie durch hohe Kreativität
und Innovationsfähigkeit aus.
145
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Der GfK Online-Monitor erhebt seit der 3. Welle (1998/99) die Nutzung der
100 reichweitenstärksten Online-Angebote. Grundlage ist die IVW-Statistik und
veröffentlichte Daten nicht IVW-gemeldeter Domains. Für die Erhebung wird das
MA-Zeitfiltermodell (siehe Abbildung 5) eingesetzt. Aber die Daten werden nicht
zu Nutzungswahrscheinlichkeiten verrechnet und als Reichweiten deklariert. Und
sie werden gemäß Beschluss der Auftraggebergemeinschaft nicht veröffentlicht
und dürfen im Wettbewerb nicht vergleichend dargestellt werden. Sie dienen
zu internen Zwecken. Maßgeblicher Grund für die Nichtveröffentlichung sind
die umfragebedingten Image-Effekte, die dazu führen, dass bestimmte Angebote
unrealistisch hohe Reichweiten erzielen und andere dagegen zu niedrige.62 Ein
Beispiel: Die Reichweite des für die Jugend „hippen“ WWW-Angebots von TV
Total ist nahezu doppelt so hoch wie die von Bild Online. Schaut man in die
IVW Online-Statistik, sind die Verhältnisse genau umgekehrt. Image-Effekte,
Crossmediaeffekte63 und Verwechslungsgefahren64 treten insbesondere bei Telefonumfragen auf. In face-to-face durchgeführten Umfragen (Paper-and-Pencil
oder CAPI) treten Image-Effekte weniger auf. Hier sorgen vor allem Bildvorlagen (Logos der Online-Angebote) dafür, dass die o.a. Störeffekte besser kontrolliert werden können und deshalb weniger gravierend sind.
Einen Überblick, welche Studien im Jahr 2003 zur Mediaplanung herangezogen werden können, zeigt die folgende Tabelle. Reichweiten auf Basis von
Nutzungswahrscheinlichkeiten (p-Werte) bieten nur einige Studien an. Und für
Online-Angebote (Domains) oder deren Unterangebote (Channels) weisen nur
die ACTA und der ORM Reichweiten in Form von p-Werten aus.
62
Reigber, Dieter und Spohrer, Michael (1998). Research Strategies in Fragmented Markets. a.a.O.,
S. 213f.
63
Crossmediaeffekte treten bei Marken auf, die in mehreren Mediengattungen präsent sind. Häufig
ist dies bei TV-Programmen wie TV Total, Wochenshow, VIVA, MTV der Fall, weniger dagegen bei
Printmedien.
64
In Telefonumfragen vermögen nicht alle Befragten einem Interview durchgehend aufmerksam zu
folgen bzw. verstehen fremdsprachliche IT-Begriffe oder Marken nicht.
146
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Markt-Media/Werbeträger-Studien zum Thema Online-Nutzung
Studie
Tabelle 6
Grundgesamtheit
Herausgeber
Interviews
Online-Nutzer
ACTA 2003
IfD Allensbach
Ausweis von Reichweiten
Online-Nutzung
Nutzungsintervall
Online-Angebote: Domaines (Channels)
p-Wert
Nutzungsintervall
p-Wert
Anzahl
WNK *)
Nutzer pro Monat
Nutzer pro Woche
ja
ja
98
94
78
) im Split erhoben
WNK **)
im letzten Monat
letzte Woche
nein
nein
60 )
o
60 )
o
60 )
Gesamt **)
im letzten Monat
letzte 14 Tage ****)
nein
nein
59 (+14)
59 (+14)
59 (+14)
nein
ja
126
126
72 (+8)
14 - 64 Jahre
10.424
5.801 Fälle
Gesamt *)
Nutzer pro Tag
ja
Gesamt *)
Nutzer pro Tag
ja
www.awa-online.de
ab 14 Jahre
21.107
9.752 Fälle
@facts
SevenOne Interactive u.a.,
Forsa
ab 14 Jahre
monatlich 10.000
monatlich 5.000
Gesamt **)
WNK **)
wöchentlich
täglich
14 - 69 Jahre
1)
29.917
12.553 Fälle
Gesamt **)
Nutzer pro Tag
ab 14 Jahre
25.928 Interviews
9.050 Fälle
Gesamt *)
im letzten Monat
letzte Woche
nein
nein
14 - 69 Jahre
2
13.198 )
6.437 Fälle
WNK ***)
im letzten Monat
Nutzer pro Woche
NpW zu Hause
NpW außer Haus
Nutzer pro Tag
NpT zu Hause
NpT außer Haus
nein
ja
ja
ja
ja
ja
ja
ab 14 Jahre
3)
20.258
6.444 Fälle
Gesamt *)
Nutzer pro Tag
ab 14 Jahre
4)
31.424
9.514 Fälle
Gesamt **)
diverse Intervalle
www.acta-online.de
AWA 2003
IfD Allensbach
www.71i.de/..... Download: @facts
CN7
FOCUS Magazin Verlag
www.medialine.focus.de
Fakten
MA 2003 II
AG.MA
www.agma-mmc.de
ORM 2003 II
AGIREV
www.agirev.de MDS Onlinetool
TdWI 2003/04
Burda Advertising Center
www.bac.de/... Markt-Media-Service
VA 2003/2
Axel Springer/Bauer Media
www.mediapilot.de/... MDS online
*) ohne zeitliche Eingrenzung
**) innerhalb der letzten 12 Monate
***) innerhalb der letzten 3 Monate
****) wird als WNK definiert
keine
o
nein
nein
ja
o
keine
WNK ***)
im letzten Monat
Nutzer pro Woche
ja
Frequenzabfrage:
regelmäßig bis nie
nein
51
nein
Gesamtnutzung
diverser Provider/
Suchmaschinen
nein
28
1)
16.093 Interviews ad random plus 13.824 quotiert
letzte Halbjahreswelle in 2002/03 und erste in 2003
in 2 Wellen von 2002 und 2003
4)
in 4 Wellen von 2001 bis 2003
2)
3)
Tabelle 6
Die ACTA bietet seit 2002 als einzige Studie Reichweiten für CrossmediaKombis an. Für 9 Angebote werden Kombinationen aus Printtitel (LpA) und
Online-Angebot (Nutzer pro Woche) ausgewiesen (z.B. die Spiegel plus Crossmedia-Kombi). Crossmedia-Angebote erlauben es den Vermarktern, in Rangreihen ihre Angebote optimal zu platzieren, wenn hohe Reichweite und hohe
Affinität zur Zielgruppe der Online-Nutzer gefragt sind. Und es gibt genügend
Belege dafür, dass Crossmedia-Produkte einen höheren Werbewirkungsbeitrag
liefern (vgl. Fußnoten 26 und 27).
Die Werbungtreibenden fordern, Reichweiten für die Unterseiten von OnlineAngeboten (Seitenkontingente, Belegungseinheiten) auszuweisen. Dem kann
mit den bisherigen Erhebungsverfahren nur unzureichend Rechnung getragen
werden. In Umfragen ist dies erhebungstechnisch nur schwer zu realisieren. Der
Online Reichweiten-Monitor erlaubt dies nur für Angebote, die einen unverwechselbaren, eigenständigen Auftritt (URL) haben und deren Logo als Bildvorlage im Interview (CAPI) darstellbar ist. Im Telefoninterview (CATI) dürfte die
147
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Abfrage von Unterangeboten durch die zuvor benannten Störeffekte zu keinen
validen Ergebnissen führen. Und beim NetMetrix-Panel ist die Datenbasis auf
Grund der Panelgröße zu gering und reicht gerade aus, die Unterseiten reichweitenstarker Online-Angebote (T-Online, AOL, Yahoo etc.) auszuweisen. Wenn
NetMetrix-Panel dennoch Unterseiten auch für andere Angebote anbieten, so
stößt man bei der Auswertung schnell auf Fallzahlgrenzen von unter 40 Fällen.
Und damit begibt man sich auf den Boden der Spekulation. Solche Reichweitenwerte sind für die Mediaplanung wenig geeignet.
Die ACTA 2003 geht einen neuen Weg, um mit Hilfe von standardisierten
Rubriken – analog zu Seitenkontingenten – die Nutzung von Online-Angeboten
zu erfragen. Für neun Online-Angebote (Lizenznehmer der ACTA) werden 33
Rubriken auf Basis des Weitesten Nutzerkreises („schon mal genutzt“), der Nutzung im letzten Monat und in der letzten Woche erhoben. Die Rubriken und
Online-Angebote werden zu Nutzungswahrscheinlichkeiten verrechnet und als
Nutzer pro Monat bzw. Nutzer pro Woche ausgewiesen, z.B. Spiegel Online
Wirtschaft.
In der Tabelle soll die Plausibilität der Ergebnisse demonstrieren, dass das
neue Instrument für die Mediaplanung von Seitenkontingenten geeignet ist. Die
ACTA kommt damit dem Wunsch der Werbungtreibenden entgegen, Belegungseinheiten auszuweisen. Oder ist das Verfahren doch nur eine Krücke und hat den
Charme des Vorläufigen, bis Reichweiten für Unterseiten/Channels ausgewiesen
werden können? Wir werden sehen, ob diese Art von Reichweiten im Alltag der
Mediaplanung Eingang finden. Jedenfalls nimmt die ACTA damit etwas vorweg,
was die AGOF mit ihrer Studie sich zum Ziel gesetzt hat.
ACTA 2003
Tabelle 7
Umfeld: Wirtschaft/Finanzen/Börse
Bevölkerung 14-64 Jahre
Besitz: Aktien, Anteil an Aktienfonds
Reichweite NpW in Tsd.
Anteil %
Affinitätsindex
50.740
31
100
SPIEGEL Online
+ besonderes Interesse an
Wirtschaftsthemen, -fragen
772
63
204
SPIEGEL Online Wirtschaft
833
59
192
FOCUS Online
+ besonderes Interesse an
Wirtschaftsthemen, -fragen
274
86
280
FOCUS Online Börse
278
80
260
STERN Online
+ besonderes Interesse an
Wirtschaftsthemen, -fragen
443
58
191
STERN Online Wirtschaft
255
55
179
Gesamt
Quelle: Marketing Kommunikation Dieter Faehling GmbH, ACTA 2003, http://www.acta-online.de, PDF Download
Tabelle 7
148
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Planungssichere Reichweiten für Online-Angebote wie für deren Unterseiten
werden wohl erst Ende 2004 mit dem innovativen Erhebungsinstrument der
AGOF zu erwarten sein. Dabei handelt es sich um einen Multimethodenansatz
(siehe Abbildung). Und die Untersuchung soll mehr als 50 000 Fälle umfassen.
Diskutiert wird, ob die geltenden Forschungsstandards eingehalten werden oder
ob neue Regeln erforderlich sind, die von den Gremien (z.B. AG.MA) zertifiziert
werden müssen. Die Qualität der Daten hängt weniger von den bisher bekannten
Störeffekten in der Erhebungsphase ab (s.o.) als vielmehr von Faktoren, die in
der Aufbereitung, Gewichtung und Fusion der Daten liegen und deren Auswirkungen noch wenig bekannt sind. Derzeit wird das Instrument getestet, insbesondere der Prozess des Data Minings und Profilings. Bei diesem Verfahren werden
Personenmerkmale auf Grund des Nutzungsverhaltens übertragen. Evaluationsstudien sollen sicherstellen, dass diese Methode zu nachvollziehbaren Ergebnissen führt.
Abbildung 9
Reichweiten sind das A und O der Mediaforschung. Die herkömmlichen Erhebungsverfahren werden durch technische Messverfahren nicht ersetzt, sondern
beide Verfahren werden miteinander kombiniert. Das hat Zukunft. Und wenn
die Erhebung auf großer empirischer Breite fußt und es der Mediaplanung
ermöglicht wird, auch kleinere Zielgruppen auf kleineren Sites oder Unterseiten
auszuwerten, dann hat die Online-Branche den anderen Mediengattungen etwas
voraus.
Online Reichweiten-Monitor und @facts haben für eine Übergangszeit ihr Soll
erfüllt. Die beteiligten Mediaforscher haben genügend Erfahrungen gesammelt.
Reichweiten im Online-Markt sind nicht so einfach zu erheben, wie man anfangs
dachte. Durch Markt-/Media-Studien wie die ACTA oder Communication Net149
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
works werden weiterhin Online-Reichweiten im Zusammenhang mit vielen
wichtigen Märkten zählbar sein. Und auch die anderen Umfragestudien (TdWI,
VA, LAE etc.) haben ihre Daseinsberechtigung nicht verloren. Denn sie alle
geben uns neben den Online-Reichweiten wichtige Konsumdaten, die uns die
AGOF-Studie in der Differenzierung nicht liefern wird können.
V. Nutzerstrukturen: Soziodemografie versus Typologien
Dem Online-Nutzer auf die Spur zu kommen, heißt, ihn anhand von persönlichen
Merkmalen zu beschreiben. Die konventionelle Mediaplanung benutzt zur Segmentierung vor allem soziodemografische Kriterien. Sie haben den Vorteil, dass
sie leicht fassbar und messbar sind. Ihr Nachteil ist, dass einige Merkmale kaum
noch Erklärungskraft besitzen.65
Dass das Haushaltsnettoeinkommen keine brauchbare Variable ist, hat sich
schon herumgesprochen. Dennoch ist es immer noch Bestandteil von vielen
Mediaplänen. Neben dem formalen, also dem biologischen Geschlecht spielt
heutzutage beim Konsumverhalten das psychologische Geschlecht eine wichtigere Rolle. Die Geschlechtsrollenorientierung hat großen Einfluss auf das Mediennutzungsverhalten und auf die Rezeption von Werbung.66
Und wie steht es mit dem Merkmal Alter? Das Marketing will uns immer noch
weismachen, dass ältere Menschen unflexibel sind beim Konsum. Aber die heutigen Senioren fühlen sich zumeist gar nicht alt, weil sie eben nicht so „verbraucht“ sind wie frühere Rentnergenerationen. Apropos Alterseinstufung: Eine
Allensbacher Umfrage von 1992 hat zum Ergebnis, dass Frauen sich durchschnittlich zehn Jahre jünger wähnen, als sie sind.
Dort, wo die Moderne ausdifferenziert, zeigen sich an der Schwelle zur Postmoderne Tendenzen zur Entdifferenzierung. An dieser Stelle setzt eine neue Ära der
Zielgruppenforschung an. Der Essener Medienphilosoph Norbert Bolz formuliert in einem Interview: „Die wirklichen Trennlinien in unserer Kultur verlaufen
nicht mehr zwischen den Altersgruppen. Mediennutzung sagt viel mehr aus: Ein
39-Jähriger, der im Internet surft, hat mehr mit einem 18-Jährigen ComputerFan gemeinsam als mit seinem Altersgenossen, der nur Bücher liest. Gerade die
65
Vgl. Reigber, Dieter. Der Einsatz von Zielgruppenmodellen als Instrument für das Anzeigenmarketing. In: Scherer, Helmut und Brosius, Hans Bernd (Hrsg.): Zielgruppen, Publikumssegmente, Nutergruppen. Beiträge aus der Rezeptionsforschung. München (R. Fischer Verlag) 1997, (Angewandte
Medienforschung; Bd. 5), S. 114–140.
66
Vgl. Reigber, Dieter: Relevanz der Frauen-Welten: Typologien für die Marktforschung. In: Reigber,
Dieter (Hrsg.): Frauen-Welten. Marketing in der postmodernen Gesellschaft – ein interdisziplinärer
Forschungsansatz. Düsseldorf (ECON) 1993, S. 320–368.
150
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
neuen Medien dringen immer tiefer in unseren Alltag ein, strukturieren immer
mehr unsere Gewohnheiten. Viele traditionelle Unterschiede verwischen auch
dadurch, dass es heute Eltern gibt, die erst mit 40 Jahren Kinder kriegen, andere
schon mit 20. In diesem Mischmasch der Generationen könnte man tatsächlich
den überholten Begriff der Zielgruppe ersetzen, wenn es gelänge, Gruppen
anhand ihrer Mediennutzung zu charakterisieren.“67 Die Mediaforschung von
Interactive Media (Axel Springer Verlag) ist einer solchen medienübergreifenden
Nutzungstypologie auf der Spur gewesen.68 Der Beleg für ein fragmentiertes
Medienpublikum in einem fraktionierten Medienmarkt ist im Ansatz erbracht.
Der Zweck der Typologie ist, trotz zunehmender Fragmentierung der Forderung
nachzukommen, Werbeträger intermedial als auch intramedial besser planen zu
können und die These von Norbert Bolz zu überprüfen. Dieser Anspruch wird in
den nächsten Jahren einzulösen sein. Gefragt sind alternative Reichweitenerhebungsmodelle.69
Abbildung 10
67
Abgestempelt: Zu alt! Interview mit Norbert F. Bolz. In Hörzu, Heft 18 vom 30.4.1998, S. 6–8.
68
Es wurde eine Clusteranalyse über die Nutzungswahrscheinlichkeiten (p-Werte) von sieben Mediengattungen (Zeitschriften, Tageszeitungen, Fernsehen, Hörfunk, Kino, Teletext, Online) durchgeführt.
1998 gibt es nur eine Studie, die solch eine Analyse erlaubt: die Typologie der Wünsche Intermedia.
Da die TdWI in den Folgejahren Fernsehen und Teletext ausgeklammert hat, konnte das ambitionierte Forschungsprojekt nicht weitergeführt werden.
69
Vgl. Reigber, Dieter und Spohrer, Michael: Research Strategies in Fragemented Markets. a.a.O.,
S. 209.
151
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Das Geschlechterverhältnis unter den 14- bis 69-jährigen Online-Nutzern des
Weitesten Nutzerkreises – innerhalb der letzten drei Monate – ist im Jahr 2003
noch immer ungleich verteilt. Und je zeitnäher bzw. intensiver die Online-Nutzung ist, desto geringer fällt die Frauenquote aus. Unter den Online-Nutzern pro
Tag sind zwei Drittel männlich70.
Bei den „Newcomern“ unter den Online-Nutzern, die weniger als ein Jahr Internet-Erfahrung haben, ist das Geschlechterverhältnis nahezu ausgeglichen: 50,4
Prozent Männer, 49,6 Prozent Frauen – in der 14- bis 69-jährigen Bevölkerung
sind 49,8 Prozent männlich und 51,2 Prozent weiblich (ORM 2003 II).
Online-Nutzer (WNK) sind auch im Jahr 2003 jünger als der
Bevölkerungsdurchschnitt. Deutlich überrepräsentiert sind die 14- bis 29-Jährigen.
Und deutlich unterrepräsentiert sind die 50- bis 69-Jährigen. Unter den OnlineNutzern pro Tag verschieben sich die Anteile nicht; soll heißen: Bei der
Nutzungsintensität hat das Alter keinen zusätzlichen Einfluss.
Die Altersstruktur der „Online-Newcomer“ ist wider Erwarten identisch mit
der der Gesamtnutzerschaft. Eine Trendanalyse zeigt, dass die Online-Nutzerpro-Woche-Reichweite bei den Senioren, wenngleich auf niedrigem Niveau,
überdurchschnittlich zugenommen hat. Und dennoch: Der überwiegende Teil der
Abbildung 11
70
Vgl. Online-Reichweiten-Monitor 2003 II. Die aktuellere ACTA 2003 weist ähnliche Ergebnisse
aus für 14- bis 64-jährige Bevölkerung: Weitester Online-Nutzerkreis 55,6 % Männer, 44,4 % Frauen;
Online-Nutzer pro Tag: 62,9 % Männer, 37,1 % Frauen.
152
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Abbildung 12
heutigen älteren Menschen vermag der Innovationsgeschwindigkeit im OnlineMarkt nicht folgen und schließt die Nutzung des Mediums für sich aus. Spätere
Kohortenanalysen werden dies belegen können.
Die Zuwendung zum Online-Medium ist im Jahr 2003 weniger abhängig vom
Bildungsstatus als noch vor wenigen Jahren. Es ist die Bildungselite gewesen,
die das Internet als Informationsmedium früh erkannt hat. Unterhaltungsangebote gibt es in den ersten Internet-Jahren kaum. Das Internet hat sich weiterentwickelt. Heute spielt der unterhaltende Sektor eine wesentlich größere Rolle.
Und eben auch solche Applikationen, die einfach gebildete Menschen ansprechen.
Menschen mit Volks-/Hauptschulabschluss sind in der Online-Nutzerschaft noch
deutlich unterrepräsentiert; selbst in der Altergruppe der 14- bis 49-Jährigen,
denen mit der Bildungsreform in den 1960er-Jahren alle höheren Bildungswege
offen stehen. Aber der Anteil der Internet-Neulinge (Nutzer seit sechs Monaten) in dieser Altersgruppe mit Hauptschulabschluss entspricht dem in der
Bevölkerung (31 %). Bald wird die werberelevante TV-Zielgruppe auch über das
Internet erreicht.
Ganz nebenbei: Gegenwärtig sehen 30 Prozent der Online-Nutzer (NpT) an
keinem Tag pro Woche zwischen 19 und 20 Uhr Fernsehen. Und zwischen 20
und 22 Uhr sind es immerhin 18 Prozent, so das Ergebnis einer Auswertung der
TdWI 2003/04 Trend.
153
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Abbildung 13
Voll Berufstätige und in Ausbildung Befindliche haben eine höhere Affinität zur
Online-Nutzung als andere Bevölkerungsgruppen. Die Nichtberufstätigen sind
deutlich unterrepräsentiert. Überwiegend sind es die Ruheständler und die im
Haushalt Tätigen, die das Internet nicht nutzen. Der Zusammenhang ist altersund geschlechtsbedingt.
Unter den Internet-Neulingen sind die Arbeitslosen und die Hausfrauen/-männer
entsprechend dem Bevölkerungsdurchschnitt vertreten.
Abbildung 14
154
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Abbildung 15
In den oberen Gehaltsgruppen beim Haushaltsnettoeinkommen (HHNE) sind die
Online-Nutzer überrepräsentiert. Aber was will das schon heißen? Die Variable
HHNE erklärt unabhängig von Haushaltsgröße und Anzahl der Verdiener im
Haushalt wenig. Ein gut verdienender Polier, seine nebenher arbeitende Ehefrau
und der Sohn in der Lehre haben zusammengenommen ein höheres Einkommen
als der C4-Professor, der als Alleinverdiener einem 3-Personen-Haushalt vorsteht.
In die Kernzielgruppe Konsumkraft fließt neben der Einkommenshöhe die
Haushaltsgröße mit ein. Und hier zeigt sich, dass bei den Konsumkräftigen der
Anteil der Online-Nutzer im Vergleich zur Gesamtbevölkerung nicht wesentlich
größer ist.
Auch beim frei verfügbaren Einkommen, also nach Abzug von Miete, Versicherungen usw., unterscheiden sich Online-Nutzer weniger als erwartet vom
Bevölkerungsdurchschnitt.
Im Jahr 2001 sind die Online-Forscher des Instituts W3B71 überzeugt, dass eine
zunehmende Repräsentanz der Online-Nutzer in unserer Gesellschaft hergestellt
sei. Gemeint ist, dass sich die Strukturen der Online-/Internet-User deutlich
denen der Bevölkerung angleichen. Davon kann selbst im Jahr 2003 noch keine
Rede sein. Zunehmende Repräsentanz würde bedeuten, dass wir uns in der End71
Vgl. Fittkau & Maaß: Internet-Anfänger surfen anders. In: Context 05/01, vom 13. März 2001,
S. 12. Vgl. auch http://www.w3b.de (24.12.2003).
155
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
phase der Entwicklung befinden. Fakt ist aber, dass die soziodemografischen
Strukturen der Online-Nutzer noch deutlich von denen der Bevölkerung abweichen. Online-User sind nach wie vor eher männlich, eher jünger, eher besser
gebildet und haben eher höhere Einkommen. Bei den Internet-Neulingen im Jahr
2003 stimmen die Merkmalsanteile für Geschlecht, Bildung und Tätigkeit mit
denen der Bevölkerung überein; aber bei der Altersstruktur gibt es noch deutliche Unterschiede.
In vielen Analysen zum Online-Markt wird darauf hingewiesen, dass die OnlineNutzerschaft noch immer eine recht homogene Zielgruppe ist. Da demografische
Merkmale bei der Beschreibung von Mediennutzungs- und Konsumverhalten
kaum noch Erklärungskraft besitzen, sollte der Forscher hinter die Kulissen
schauen. In diesem Zusammenhang helfen Typologien, die auf psychografischen
Merkmalen fußen, schon eher weiter.
Zur Verortung der Online-Nutzerschaft können beispielsweise die Sinus-Milieus
herangezogen werden. Die Sinus-Milieus sind das Ergebnis von fast zwei Jahrzehnten sozialwissenschaftlicher Forschung. Die Definition der Sinus-Milieus
geht aus von der Lebenswelt und dem Lebensstil der Menschen – und nicht von
formalen Kriterien wie Schulbildung, Beruf und Einkommen. Die Grenzen zwischen den Milieus sind fließend. Lebenswelten sind nicht so exakt eingrenzbar
wie soziale Schichten. Die Sinus-Milieus werden seit 1995 kontinuierlich in der
TdWI ausgewiesen. Sie eignet sich deshalb gut für eine Zeitreihenanalyse, um
Veränderungen in der Zusammensetzung der Online-Nutzerschaft aufzuzeigen.
Das Schaubild zeigt die Milieustruktur 1997/99 in Westdeutschland. Je höher
das entsprechende Milieu in der Grafik angesiedelt ist, desto gehobener sind Bildung, Einkommen und Beruf. Und je weiter ein Milieu sich nach rechts erstreckt,
desto weniger traditionell ist seine Grundorientierung.
Anhand der Sinus-Milieus können die strukturellen Unterschiede zwischen der
Online-Nutzerschaft und der durchschnittlichen Bevölkerung dargestellt werden.
Die Fragmentierung ist kaum oder nur wenig über rein soziodemografische
Merkmale erklärbar. Erst die Kombination aus sozialer Schichtung und Wertorientierung gibt uns eine Vorstellung, warum in einigen Milieus das Internet eine
hohe Penetration erfährt und in anderen so gut wie kaum.72
72
Vgl. Sinus Sociovision, Heidelberg; Typologie der Wünsche 1999/2000, S. 12–17.
156
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Trend: Online-/Internet-Nutzung 1997 bis 1999
Die Sinus Milieus in Deutschland West
Oberschicht
Obere
Mittelschicht
Konservativtechnokratisches Milieu
10 %
Liberal-intellektuelles
Milieu
10 %
148 140 170
96 114 119
Mittlere
Mittelschicht
Postmodernes
Milieu
6%
Modernes bürgerliches
Milieu 8 %
Aufstiegsorientiertes
Milieu
18 %
Kleinbürgerliches
Milieu
14 %
Untere
Mittelschicht
9 4 6
139 137 126
Traditionelles
Arbeitermilieu
5%
11 8 18
Unterschicht
70 70 59
Traditionsloses
Arbeitermilieu
11 %
Modernes
Arbeitnehmermilieu
7%
222 163 149
171 200 195
Hedonistisches
Milieu
12 %
Darstellung:
Größe der
Milieus in %
OnlineNutzung:
Index
130 134 107
27 35 52
Soziale
Lage
Grundorientierung
Materielle Grundorientierung
Konservative
Grundorientierung
Status / Besitz
Konsum
Hedonismus
Postmaterialismus
Postmodernismus
»Bewahren«
»Haben«
»Verbrauchen«
»Genießen«
»Sein«
»Erleben«
© Sinus Sociovision – Heidelberg / Quelle: TdWI ‘98/99 Trend, deutschsprachige Bevölkerung in Westdeutschland, 50,53 Mio. 8095 Interviews
Abbildung 16
Die Anteile in Prozent geben die Größe des Milieus in der Bevölkerung wieder.
Die Zeitreihenergebnisse sind als Indizes dargestellt. Ein Index > 100 bedeutet,
dass Online-Nutzer in dem Milieu um den Anteil > 100 überrepräsentiert sind.
Ein Index < 100 bedeutet den umgekehrten Fall.
Zuerst einmal fällt auf, dass Online-Nutzung ein Oberschichtphänomen und
zugleich Inbegriff innovationsbereiter Bevölkerungsschichten ist. Denn OnlineUser mit kleinbürgerlicher Milieu-Zugehörigkeit oder traditioneller wie traditionsloser Arbeitermilieu-Zugehörigkeit sind weit unterrepräsentiert. Dagegen
gibt es weit mehr Online-User im informationsorientierten konservativ-technokratischen Milieu, das zwar nicht sonderlich innovationsfreudig ist, sich aber
per se durch hohe Technikakzeptanz auszeichnet. Und deutlich überrepräsentiert
sind Online-User in den Milieus, die an der vordersten Kante der gesellschaftlichen Entwicklung (at the leading edge) sich befinden: im postmodernen oder im
hedonistischen Milieu; und besonders im modernen Arbeitnehmermilieu, dessen
Angehörige in den modernen Schlüsselindustrien und Dienstleistungsbereichen
arbeiten, wo die Nutzung von Computer und Internet zum Alltag gehören.
Und es zeigen sich Besonderheiten: 1997 sind im modernen bürgerlichen
Milieu die ausschließlich am Arbeitsplatz nutzenden Online-User noch leicht
überrepräsentiert. Zu Hause spielt Online-Nutzung dagegen kaum eine Rolle.
Im Zentrum des modernen bürgerlichen Milieus stehen Familie und Kinder. Die
Freizeit wird vor allem mit den Kindern verbracht. In der Kindererziehung des
modernen bürgerlichen Milieus treffen moderne Kommunikationstechniken auf
157
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Vorbehalte. Im Jahr 1998 ist selbst im Berufsleben ein Rückzug vom OnlineMedium festzustellen. Dieses Milieu scheint sich der modernen Kommunikationstechnologie zu verweigern, und das nicht nur aus ästhetischen Gründen.
Im liberal-intellektuellen Milieu sind 1998 die Online-Nutzer erstmals
überrepräsentiert. Viele Anzeichen sprechen dafür, dieses Milieu lehne die neuen
Kommunikationstechniken intellektuell ab, weil es damit eher Befürchtungen
denn Hoffnungen auf eine bessere Zukunft verbindet. Zwischenzeitlich haben
die Liberal-Intellektuellen eine eher konstruktiv-kritische, gleichsam pragmatische Position eingenommen.
Online wird in den nächsten Jahren ein Oberschichtphänomen und ein Metier für
innovative Bevölkerungsschichten bleiben, wenn der Zugang ausschließlich über
den Computer erfolgt. Erst wenn es zu einer Medienkonvergenz von Internet und
Fernsehen (Teleweb, Web-TV) kommt, ist damit zu rechnen, dass auch die unteren sozialen und weniger innovationsbereiten Schichten erreicht werden.73
Trend: Online-/Internet-Nutzung im Jahr 2000
Sinus Milieus in Deutschland
Oberschicht
Obere
Mittelschicht
Mittlere
Mittelschicht
Etabliertes Milieu
8%
Bürgerlichhumanistisches Milieu
1%
134
212
Traditionelles
bürgerliches
Milieu
14%
8
Untere
Mittelschicht
DDR-verwurzeltes Milieu
106
2%
37
Modernes bürgerliches Milieu
8% 75
Statusorientiertes
Milieu
15%
Postmodernes
Milieu
6%
Adaptives Milieu
8%
193
263
132
Traditionelles
Arbeitermilieu
KonsumKonsum6%
materialistisches Milieu
Milieu
14 materialistisches
11%
11%
Unterschicht
Gesamtdeutsche
Milieus
Intellektuelles Milieu
10%
Hedonistisches
Milieu
11%
Darstellung:
Größe der
Milieus in %
OnlineNutzung:
Index
KonvergenzMilieus
Westspezifisches
Milieu
Ostspezifische
Milieus
84
3636
Soziale
Lage
Grundorientierung
Materielle Grundorientierung
Konservative
Grundorientierung
Status / Besitz
Konsum
Hedonismus
Postmaterialismus
Postmodernismus
»Bewahren«
»Haben«
»Verbrauchen«
»Genießen«
»Sein«
»Erleben«
© Sinus Sociovision – Heidelberg / Quelle: TdWI 2000/1 Trend, Bev. ab 14 Jahre, 63,83 Mio., Zielgruppe: Weitester Online-Nutzerkreis
Abbildung 17
Zur Situation im Jahr 2000: Die sozialen Lebenswelten in Ost- und Westdeutschland nähern sich an. Viele Milieus können schon gesamtdeutsch ausgewertet
werden. Aber es gibt immer noch spezifische Ost-Milieus, die aus dem Blickwinkel eines Westdeutschen erklärungsbedürftig sind. Einige Milieus werden neu
benannt, mit der Begründung, diskriminierungsfreiere Bezeichnungen finden zu
wollen. Inhaltlich sind die Milieus gleich geblieben.
73
Heute wissen wir, dass es zur Medienkonvergenz noch immer nicht gekommen ist. Die
Prognose wurde 1998 gewagt. Vgl. Reigber, Dieter: Markt- und Mediaforschung über das Internet.
Veröffentlichte Präsentation zu den Daten des GfK Online-Monitors 2. Welle im Sommer 1998.
Hrsg. v. Interactive Media (Axel Springer Verlag), Hamburg.
158
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Auf Basis einer gesamtdeutschen Betrachtung haben sich die Milieuschwerpunkte der Online-Nutzer im Jahr 2000 kaum verändert. Es gibt Milieus, in denen
Online-User überrepräsentiert, andere, in denen sie seit je her unterrepräsentiert
sind. Soziodemografisch betrachtet, schreitet der Nivellierungsprozess bezüglich
Geschlecht, Bildung und Tätigkeit voran, wie die Daten des GfK Online-Monitors zeigen. Aber milieuspezifisch betrachtet, hat sich in den Jahren so gut wie
nichts verändert. Nach wie vor finden Menschen im traditionellen bürgerlichen
Milieu (früher die Kleinbürger genannt) und im traditionellen wie im traditionslosen Arbeitermilieu (heute die Konsummaterialisten) kaum Zugang zum Internet.
Online-Nutzung ist im intellektuellen Milieu nur leicht überrepräsentiert. Es
herrscht die Skepsis vor, die modernen Kommunikationstechniken gäben dem
Staat und insbesondere der globalisierten Wirtschaft Möglichkeiten an die
Hand, Online-Nutzer zu kontrollieren. Andererseits ist diese Schicht pragmatisch genug, die intellektuellen Vorbehalte hintanzustellen, wenn es um die Vorteile der Online-Nutzung geht. Dennoch werden sie sehr vorsichtig im Internet
agieren. Cookies werden sie sich ungern setzen lassen.
Trend: Online -/Internet-Nutzung 2001 bis 2003
Sinus Milieus in Deutschland
Oberschicht/
Obere
Mittelschicht
Darstellung:
Größe der
Milieus in %
Etablierte
10%
Konservative
5%
169 138 129
53 40 47
Postmaterielle
10%
185 182 170
Moderne
Performer
8%
285 225 210
Bürgerliche Mitte
16%
Mittlere
Mittelschicht
Traditionsverwurzelte
15%
DDRNostalgische
4 13 12
Untere
Mittelschicht /
Unterschicht
Experimentalisten
7%
61 71 83
144 153 173
6%
25 50 47
Konsum-Materialisten
11%
Hedonisten
11%
91 115 112
47 68 59
Soziale
Lage
Grund orientierung
Traditionelle Werte
Pflichterfüllung, Ordnung
Modernisierung I
Konsum-Hedonismus und Postmaterialismus
© Sinus Sociovision – Heidelberg / Quelle: TdWI 2001/02 bis 2003/04 jeweils Trend, Be
OnlineNutzung:
Index
Modernisierung II
Patchworking , Virtualisierung
v. ab 14 Jahre, 64,25 Mio., Zielgruppe: Weitester Online
-Nutzerkreis
Abbildung 18
Im modernen bürgerlichen Milieu sind nach wie vor Verweigerungstendenzen
gegenüber den modernen Kommunikationstechniken festzustellen, nicht aus
Unwissenheit, sondern eher aus prinzipiellen Gründen.
159
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Auffällig ist der Abwärtstrend im hedonistischen Milieu. Sie sind sehr innovativ
– aber nur, was die Wünsche betrifft. Die Empiriker des Sinus-Instituts unterstellen ihnen zuweilen bloßes Wunschdenken. Im Jahr 1997 ist es noch „hip“,
als Online-Nutzer zu gelten. Da haben sie sich gern als solche ausgegeben. Drei
Jahre später stufen sie sich realistischer ein.
Im Jahr 2001 führt das Institut Sociovision ein Modell-Update durch (vgl.
Abbildung 18). Im Zuge dieser Überarbeitung wird die Milieulandschaft neu
zugeschnitten. Damit wird dem gesellschaftlichen Wandel Rechnung getragen,
ohne eine übermäßige Fragmentierung vorzunehmen. Ein direkter Vergleich der
Milieuschwerpunkte der Online-Nutzer zum alten Modell ist nicht möglich.74
Der generelle Befund bleibt jedoch erhalten. Die Online-Nutzer haben Schwerpunkte in den gesellschaftlichen Leitmilieus (Etablierte, Postmaterielle, Moderne
Performer) und den Hedonistischen Milieus (Experimentalisten, Hedonisten).
Zwar besteht ein noch deutlich höheres Interesse bei den Hedonisten, die finanziellen Möglichkeiten sind jedoch beschränkt.
Gezeigt werden soll, dass dem Online-Nutzer besser auf die Spur zu
kommen ist, wenn man statt demografischer Merkmale Werteorientierung und
Schichtzugehörigkeit heranzieht. Die Sinus-Milieus sind schon für viele Werbekampagnen Grundlage der Mediaplanung gewesen. Dazu zählen insbesondere
Kampagnen für Pkws und Versicherungen. Nach dem Printsektor haben die TVSender dieses Tool in ihre Zählprogramme aufgenommen. Deshalb sollten die
Sinus-Milieus, das RISC-Modell oder der Semiometrie-Ansatz75 oder andere
Typologien, die Zielgruppen bezüglich ihrer soziokulturellen Werte beschreiben, im Rahmen der qualitativen Online-Mediaplanung eingesetzt werden.
Um das Online-Nutzungsverhalten besser zu verstehen, eignen sich Nutzertypologien. Die Studie @facts extra (2003) bietet fünf Online-Nutzertypen an.76
Basis für die Typologisierung der Online-Nutzer ist ihr Interesse an insgesamt
34 Inhalten und 22 Internet-Anwendungen. Die Benennungen der Typen sind auf
Grund ihrer Aktivität im Internet gewählt.
74
Der interessierte Leser wendet sich hinsichtlich der Beschreibung und der soziodemografischen
Zusammensetzung der Milieus an das Sinus Institut, Heidelberg oder an die Herausgeber der Typologie der Wünsche bzw. an den Media Service, Burda Advertising Center (BAC), Offenburg. Der TdWI
haben wir die Daten entnommen.
75
SevenOneMedia (2002). Semiometrie. Der Zielgruppe auf der Spur. Vgl. auch SevenOneMedia
(2002). Mediaplanung mit Semiometrie. Top Thema August 2002. PDF-Download http://
www.sevenonemedia.de/research/zielgruppen/semiometrie/mediaplanung/index.php (24.12.2003)
76
SevenOne Interactive (2003). @facts extra. Online-Nutzer-Typen. PDF-Download unter http://
www.71i.de, Link @facts (24.12.2003)
160
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Die „Zurückhaltenden“ zeichnen sich durch eine kritische Haltung und emotionale Distanz zum Internet aus. Sämtliche Interessensdimensionen sind in dieser
Gruppe unterrepräsentiert. Die Distanz ist zum Teil auf ihre Unerfahrenheit
zurückzuführen. In dieser Gruppe befindet sich der größte Anteil der InternetNeulinge.
Jeder zehnte Online-Nutzer zählt zur Gruppe der „Shopper“. Ihre Hauptinteressen liegen in den Bereichen Shopping, Nutzen von Kleinanzeigen und
Recherchieren im Internet. Das Hauptmotiv, ins Internet zu gehen, ist der OnlineEinkauf von Waren oder die Nutzung von Dienstleistungen. Auch Technik- und
Lifestyle-Themen interessieren diese Gruppe.
Abbildung 19
Die „Surfer“ werden von den SevenOne-Interactive-Mediaforschern als die
Online-Fans unter den Online-Nutzern bezeichnet. Für nahezu alle Interessensgebiete können sie sich begeistern. Lediglich Nachrichteninhalte und Recherche-Applikationen interessieren die Surfer kaum. Sie nutzen das Internet vor
allem, um neue Unterhaltungsangebote zu finden und Computerspiele kennen zu
lernen.
Die „Info-Suchenden“ haben ein sehr pointiertes Interessensprofil. Alles dreht
sich um die Informationsbeschaffung und Service-Anwendungen im Internet.
Sie nutzen das Internet in erster Linie beruflich bedingt.
Die Interessen der „Entertainer“ im Internet sind klar auf ein Ziel ausgerichtet:
Alles, was zu Unterhaltung beiträgt und mit dem sie ihre Freizeit gestalten
161
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
können, z.B. Comedy- und Lifestyle-Themen, Audio- und Videodateien herunterladen und an Chats, Communities und Dating-Plattformen teilnehmen.
Die @facts-Typologie kann dazu verwendet werden, Online-Angebote nach
ihrer Nutzerschaft zu beurteilen. Und sie soll als qualitatives Instrument bei der
Vorauswahl in der Mediaplanung eingesetzt werden.
Lebenswelten- und Nutzertypologien der beschriebenen Art sollten in einer
großangelegten Markt-/Media-Studie, wie sie die AGOF plant, zum Analyserepertoire gehören. Sie erklären mehr als bloße Demografie und eignen sich für
eine differenzierte und optimale Online-Mediaplanung.
Gegenwärtig gibt es neben dem NetMetrix-Panel von NetRatings nur zwei
Werbeträgeranalysen, mit denen Online-Angebote geplant werden können. Das
sind der Online Reichweiten-Monitor (ORM 2003 II) und die ACTA 2003.
Der ORM hat für das nächste Jahr kaum noch Relevanz im Mediaplanungsgeschäft. Denn die Daten werden nicht mehr aktualisiert. Auch die Studie @facts
hat zuletzt im September 2003 Daten veröffentlicht. Die Auftraggeber der beiden
Studien haben sich in der Arbeitsgemeinschaft AGOF zusammengeschlossen
und wollen im Jahr 2004 die neue „Online-Mediaplanungswährung“ vorstellen.
Angesichts knapper Kassen werden die beiden o.g. Studien nicht weitergeführt,
bis die Daten der neuen Untersuchung auf dem Markt sind. Die Lücke füllen
bis dahin die ACTA 2003 und eingeschränkt der ORM 2003 II. Es ist nicht
auszuschließen, dass von einigen Online-Vermarktern in der AGIREV der ORM
wiederbelebt wird, wenn sich erweisen sollte, dass die AGOF-Studie bis Ende
2004 keine brauchbaren Daten publiziert (Honi soit qui mal y pense!).
Auf den beiden folgenden Seiten sind die Ergebnisse zweier Rangreihen aus dem
ORM und der ACTA dargestellt. Sie zeigen, welche Möglichkeiten der Mediaplanung geboten werden, aber auch, welche Grenzen die Instrumente haben.
Was nützen Zählungen, in denen Reichweite und Affinitätsindex ausgewiesen
werden, aber nicht die Wirtschaftlichkeit von Online-Angeboten berechnet
werden kann. Bevor die Online-Vermarkter dem Markt eine neue OnlineMediaplanungswährung feilbieten, hätten sie ihre Hausaufgaben machen sollen.
Es fehlen noch immer einheitliche Standards, wie Online-Werbeformen definiert
und wie die Kosten ausgewiesen werden sollen.
Im ORM 2003 II können 92 redaktionelle wie kommerzielle Online-Angebote
(Domains), Channels für AOL, T-Online, MSN, Online-Kombis und InstantMessenger-Angebote ausgewertet werden. Die Rangreihe wurde mit dem
162
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Mediaplanungstool MediMACH77 gezählt. Zielgruppe sind die zumindest gelegentlichen Nutzer von Online-Diensten, die Fitness- und Wellness-Themen anbieten. Ein zunehmend wichtiger Markt, der von vielen Werbeträgern bedient wird
mit redaktionellen Beiträgen und kommerziellen Angeboten. Die Online-Angebote sind sortiert nach Affinität zur Zielgruppe. Angeführt wird die Rangreihe
von zwei Kombis von TOMORROW FOCUS, gefolgt von rein kommerziellen
Anbietern aus der Touristikbranche.
Die zweite Rangreihe wurde mit dem Mediaplanungstool MDS78 gezählt. In
der ACTA 2003 können 76 Zeitschriften und Zeitungen, 16 Tarifkombinationen, zwölf TV-Sender, 94 redaktionelle wie kommerzielle Online-Angebote,
neun Online-Angebote mit Belegungseinheiten und sieben Crossmedia-Kombinationen gezählt werden. Zielgruppe der Rangreihe sind Personen, die sich ein
Flachbildfernsehgerät anschaffen wollen. Auch dies ein zunehmend wichtiger
Markt für Online-Kampagnen. Die Rangreihe weist alle Werbeträger mit einer
Affinität von 140 sortiert nach Reichweitehöhe aus. Angeführt wird die Rangreihe von der Spiegel plus Crossmedia-Kombi, gefolgt von den Nachrichtenmagazinen Der Spiegel und FOCUS.
77
Ein Mediaplanungsprogramm der MediMACH Software GmbH, COMsulting Gerhard Faehling
GmbH, Timmendorfer Strand. http://www.medimach.com (31.12.2003).
78
MDS ist ein Zählprogramm, das vom Axel Springer Verlag, Hamburg, entwickelt und vermarktet
wird. http://www.mediapilot.de, Link MDS (30.12.2003).
163
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Quelle : AGIREV ORM 2003 II
MediMACH
Tabelle 8
Tarifdatei: Tarife 2003 / Stand: 10.09.03 - Berechnung: Netto
Zeitschriften: 1x 1/1 (Alt. 1/1) ; vierfarbig
Zeitungen: 1x 1/1 s/w
TV: 1x 30 Sekunden
Radio: 1x 30 Sekunden
Vorfilter:
Weitester Nutzerkreis (innerhalb der letzten 3 Monate)
(7.028 Fälle (ungew.); 6.300 Fälle (gew.); 26,28 Mio.)
Fitness und Wellness: Nutze ich häufig/gelegentlich
(1.284 Fälle (ungew.); 1.109 Fälle (gew.); 4,63 Mio.)
Reichw.
%
Weitester Online-Nutzerkreis
(innerhalb der letzten 3 Monate)
Frauen TOMORROW FOCUS-Kombi
Lifestyle TOMORROW FOCUS-Kombi
TUI.de
Lufthansa InfoFlyway
neckermann versand
L'tur
Gute Zeiten, schlechte Zeiten
Jamba!
tv total
comdirect
Tchibo.de
QUELLE
VIVA
pro7.de
BOL
handy.de
RTL II
Sat.1 online
MTV
JobScout24
cinema
shopping24
Focus Online
Shop AOL
WirtschaftsWoche heute
TV Movie.de
Yahoo! Messenger
OTTO
RTL World
Bild.T-Online.de
ADAC online
AOL Entertainment
stern.de
Fireball
Auto Bild.de
TOMORROW FOCUS-Kombi
Die Bahn
wissen.de
MSN Messenger
QC-Reichweitenkombi
Kicker online
Spiegel Online
T-Online Messenger
n-tv online
QC-Nachrichtenkombi
QC-Top-Zielgruppenkombi
QC-Wirtschaftskombi
mobile.de
Instant Messenger NpW
Computer TOMORROW FOCUS-Kombi
Mio
Kosten
EUR
TKP
EUR
Anteil
%
Index
0
200
Index
100
100,0
4,63
17,6
100
3,0
9,6
3,3
2,8
3,8
3,7
6,0
2,2
8,2
2,9
9,2
5,1
7,3
5,8
3,3
3,2
3,0
4,8
8,6
3,3
2,0
2,3
7,7
2,9
2,8
2,9
4,5
4,7
7,0
8,4
4,4
2,8
5,9
11,4
2,7
32,8
6,8
7,7
4,8
17,0
5,6
6,5
5,8
5,6
8,5
10,1
2,4
4,4
23,4
3,8
0,14
0,45
0,15
0,13
0,17
0,17
0,28
0,10
0,38
0,13
0,42
0,24
0,34
0,27
0,15
0,15
0,14
0,22
0,40
0,15
0,09
0,11
0,36
0,14
0,13
0,13
0,21
0,22
0,33
0,39
0,20
0,13
0,27
0,53
0,13
1,52
0,32
0,36
0,22
0,79
0,26
0,30
0,27
0,26
0,39
0,46
0,11
0,20
1,08
0,17
51,3
42,8
39,8
39,7
38,2
37,5
37,1
34,8
34,5
33,8
33,1
33,1
33,1
32,7
32,4
31,7
30,8
30,6
30,4
30,4
30,1
29,9
29,8
29,6
28,8
28,7
28,6
28,4
28,1
28,0
27,7
27,2
27,0
26,9
26,3
26,2
26,1
25,9
25,9
25,9
25,8
25,6
25,4
25,4
25,3
25,3
25,1
25,1
24,9
24,7
292
243
226
225
217
213
211
198
196
192
188
188
188
186
184
180
175
174
173
172
171
170
169
168
164
163
162
161
160
159
157
155
154
153
149
149
148
147
147
147
147
145
144
144
144
144
143
142
142
140
Tabelle 8
164
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
ACTA 2003
Rangreihe
MDS
Tabelle 9
Zielgruppe: Kaufplan Flachbildfernsehgerät; Potenzial: 9.3 %, 965 Fälle, 4.70 Mio.
Vergleichs-Zielgruppe: Bevölkerung 14 bis 64 Jahre; Potenzial: 100,0 %, 10.424 Fälle, 50.74 Mio.
Rangreihe nach Reichweite mit Affinitätsindex >= 140;
Medien
PZ-Preis: (1) = vorab, (2) = nicht aktuell
1 Spiegel plus Crossmedia-Kombi
2004-er Preise 10.10.2003 - Netto
ReichEuro pro
Kosten
weite
1.000
Euro
%
Nutzer
***
***
19,0
ReichAffiweite
nität
Mio.
0,89
143
2 DER SPIEGEL
48.500
64,36
16,0
0,75
141
3 Focus
42.000
64,65
13,8
0,65
143
4 Computer Bild Crossmedia-Kombi
***
***
13,6
0,64
157
5 TV-N24 SPT
***
***
13,5
0,64
152
6 AOL.de (NpW)
***
***
12,6
0,59
141
7 T-online.de News/Nachrichten (NpW)
***
***
12,1
0,57
142
22.329
39,66
12,0
0,56
161
***
***
10,9
0,51
144
***
***
10,9
0,51
158
33.000
69,09
10,2
0,48
158
***
***
9,9
0,46
149
32.300
93,14
7,4
0,35
144
14 Wetter.com (NpW)
***
***
7,3
0,34
141
15 Chip Crossmedia-Kombi
***
***
7,2
0,34
169
11.400
33,75
7,2
0,34
143
17 PC Welt Crossmedia-Kombi
***
***
7,0
0,33
162
18 FIREBALL (NpW)
***
***
7,0
0,33
141
19 T-online.de Sports/Sport (NpW)
***
***
6,0
0,28
165
20 WetterOnline (NpW)
***
***
6,0
0,28
149
21 PC-WELT (1)
16.490
60,02
5,9
0,27
168
22 Bild.de (NpW)
***
***
5,6
0,26
161
23 wissen.de (NpW)
***
***
5,4
0,26
140
24 bundesliga.de (NpW)
***
***
5,3
0,25
166
25 Playboy
21.000
88,91
5,0
0,24
154
26 CHIP (1)
14.400
61,20
5,0
0,24
164
27 Sport1.de (NpW)
***
***
5,0
0,23
178
28 Süddeutsche Zeitung Crossmedia-Kombi
***
***
5,0
0,23
140
29 FOCUS Online (NpW)
***
***
4,9
0,23
194
30 Spiegel Online (NpW)
***
***
4,8
0,23
164
31 n-tv.de CNN.de (NpW)
***
***
4,5
0,21
209
32 RTL World (NpW)
***
***
4,3
0,20
149
33 kicker online (NpW)
***
***
4,1
0,19
174
10.500
54,11
4,1
0,19
167
35 L'tur (NpW)
***
***
4,1
0,19
151
36 AutoScout24.de (NpW)
***
***
4,1
0,19
159
37 mobile.de (NpW)
***
***
4,1
0,19
170
22.250
120,23
3,9
0,19
140
39 stern.de (NpW)
***
***
3,9
0,18
176
40 C't/Heise online Crossmedia-Kombi
***
***
3,9
0,18
151
41 Kostenlos.de (NpW)
***
***
3,7
0,18
141
42 AltaVista (NpW)
***
***
3,6
0,17
173
43 TUI.de (NpW)
***
***
3,6
0,17
148
18.600
111,48
3,6
0,17
178
45 Spiegel Online Politik (NpW)
***
***
3,5
0,17
162
46 CHIP Online (NpW)
***
***
3,5
0,16
174
47 Bild.de News/Nachrichten (NpW)
***
***
3,4
0,16
191
48 MTV.de (NpW)
***
***
3,4
0,16
144
11.400
72,31
3,4
0,16
144
***
***
3,3
0,16
148
8 COMPUTER BILD
9 Lycos (NpW)
10 Premiere Crossmedia-Kombi
11 Premiere (2)
12 Online-Angebot der reg. Tageszeitung (NpW)
13 AUTO BILD
16 COMPUTER BILD SPIELE
34 PC Games (2)
38 Petra
44 Men's Health (1)
49 WELT am SONNTAG Gesamtausgabe
50 Game Star Crossmedia-Kombi
Tabelle 9
165
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Auf den nächsten Rängen sind die Computer Bild Crossmedia-Kombi, die Seher
pro Tag des Nachrichtensenders N24, die Homepage von AOL.de und die Nachrichtenrubrik von T-Online.
Crossmedia-Kombis vereinen vorteilhaft die Affinität des Online-Angebots zur
Zielgruppe und die Reichweite des Printtitels in der Zielgruppe. Und mittels der
Rubriken, die hier gleichsam als Belegungseinheiten fungieren, kann bei sehr
reichweitenstarken Online-Angeboten dem Argument „Masse erschlägt Klasse“
begegnet werden.
Fazit
Die bisherigen Analyse-Instrumente sind für die Online-Mediaplanung suboptimal. Das liegt daran, dass in den gängigen Studien und Zählprogrammen Unterseiten (Belegungseinheiten) nur unzureichend ausgewiesen werden. Und es liegt
an den Online-Vermarktern, die bislang keine Transparenz in der Preispolitik
zulassen. In den Zählprogrammen sind die Kosten für die verschiedenen Werbeformate nicht eingepflegt. Damit kann Online-Mediaplanung nur auf Basis
von Reichweite und Affinität zur Zielgruppe betrieben werden, nicht aber unter
Wirtschaftlichkeitsgesichtspunkten.
Es muss nicht verwundern, wenn die Media-Agenturen bis heute ob der unzureichenden Voraussetzungen die Online-Studien nur als Anhalt und zur Vorselektion nutzen, die eigentliche Mediaplanung aber auf der Grundlage ihrer
bisher gemachten Erfahrungen – sie nennen es die agentureigenen Learnings –
durchführen.
Die Online-Vermarkter haben es sich viel kosten lassen, Online-Markt-/MediaStudien zu finanzieren oder NetMetrix-Panel-Lizenzen zu erwerben und zudem
die Ausgaben für die IVW zu bestreiten. Alle diese Instrumente haben dem
Markt Daten zur Verfügung gestellt, mit denen man „ein wenig“ planen konnte.
Aber erst die Verzahnung dieser Instrumente ermöglicht echte Mediaplanung.
Neu ist diese Idee nicht, denn sie wurde bereits im Jahr 1999 auf dem Worldwide
Readership Symposium vorgestellt.79
Erwartungsfreudig verfolgen wir die Bestrebungen der AGOF, ein Mediaplanungsinstrument zu entwickeln, das die Vorteile technischer Messung und
Umfrage kombiniert. Das Tool wird sogar wegweisend sein für die anderen
Mediengattungen.
79
Reigber, Dieter und Spohrer, Michael: Research Strategies in Fragmented Markets. a.a.O.
166
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Dieter Reigber, M.A. ist Jahrgang 1951,
selbstständiger Medienforscher mit Schwerpunkt
Online-Forschung in Hamburg. Er studierte Publizistik, Politik und Öffentliches Recht an der Johannes-Gutenberg-Universität in Mainz. Von 1986 bis
1990 war er wissenschaftlicher Mitarbeiter am
Institut für Demoskopie Allensbach und danach
bis 1996 Studienleiter der Burda-Medienforschung.
Dort operationalisierte er für den Launch von
FOCUS die Info-Elite. Von 1996 bis 2000 war er
Leiter Media bei interactive media im Axel Springer Verlag, Hamburg, und entwickelte dort ein
Mediaplanungsinstrument für die Vermarktung von
Teletext und war für den Aufbau der Online-Marktforschung zuständig. 2000/01 Geschäftsführer von
PopNet Research. Seit 2002 freiberuflich tätig:
Media Research & Consulting. Er koordinierte den
Online Reichweiten-Monitor.
Dieter Reigber ist Autor und Herausgeber diverser
Publikationen zu Studien der Frauenforschung,
Glücksforschung, der Medien- und Marktforschung, in denen Konzepte universitärer Forschung für das Marketing praxisbezogen aufbereitet
werden: Frauen-Welten. Marketing in der postmodernen Gesellschaft (1993); Social Networks
(1993); Glück im Garten – Erfolg im Markt (1995);
Sprache in der Food-Werbung (1996); Communication Networks (1996), Agentenbasierte Marktforschung (2001).
Quellenverzeichnis
Aburdene, Patricia & Naisbitt, John (1993). Megatrends: Frauen. Düsseldorf:
ECON, 1993.
ACTA (2003). Allensbacher Computer- und Telekommunikationsanalyse. Hrsg.:
Institut für Demoskopie Allensbach. Erstmalig 1997, seit 1998 werden Reichweiten für Online-Angebote auf Basis „Nutzer im letzten Monat“ ausgewiesen,
seit 2000 als Nutzungswahrscheinlichkeit „Nutzer pro Monat“ und seit 2001
auch als „Nutzer pro Woche“. URL: http//www.acta-online.de, 24.12.2003.
ADM (2001). Arbeitskreis deutscher Markt- und Sozialforschungsinstitute e.V.,
Frankfurt am Main (ADM): Standards zur Qualitätssicherung für Online-Befragungen, Ausgabe Mai 2001. (Hrsg. ADM, ASI, BVM, D.G.O.F.) Siehe auch:
167
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
URL: http//www.adm-ev.de/homepage/html im Menü: Qualitätsstandards; sowie
im Menü: Richtlinien: Richtlinie für Online-Befragungen. Download: PDFDatei, 24.12.2003.
AGIREV. Arbeitsgemeinschaft Internet Research e.V., München. Der eingetragene Verein wurde von neun Online-Vermarktern (u.a. Zeitschriftenverlage)
gegründet und erhebt seit der Jahrewende 2001/02 den Online ReichweitenMonitor (ORM). URL: http//www.agirev.de, 24.12.2003.
AGOF. Arbeitsgemeinschaft Online-Forschung. Gegründet 2002 von führenden
deutschen Online-Vermarktern und -Werbeträgern. Der Verein setzt sich zusammen aus allen Mitgliedern der Arbeitsgemeinschaft Internet Research e.V.
(AGIREV), Auftraggeberin des Online-Reichweiten-Monitors (ORM), und den
Trägern und Lizenznehmern der Arbeitsgemeinschaft @facts sowie weiteren
führenden Online-Vermarktern. URL: http://www.agof.de.
AWA (2003). Allensbacher Werbeträger-Analyse. Hrsg.: Institut für Demoskopie
Allensbach. Markt-/Media-Studie mit jährlicher Erscheinungsweise seit 1959.
Seit 1997 wird die Internet-Nutzung ausgewiesen und seit 2000 ein Reichweitenwert „Nutzer pro Tag“ (Nutzungswahrscheinlichkeit). URL: http//www.awaonline.de, 24.12.2003.
Axel Springer Verlag (1991). Multiplying. Mediamix. Eine Zusammenstellung
internationaler Studien zum Multiplying-Effekt. Hamburg: Axel Springer Verlag,
1991.
Batinic, Bernad: Der Online-Forschung fehlen bisher
Qualitätskriterien. In: <e>MARKET_34/00 vom 25.8.2000.
eindeutige
Batinic, Bernad: Datenqualität bei internetbasierten Umfragen. In: Axel
Theobald/Marcus Dreyer/Thomas Starsetzki (Hrsg.): Online-Marktforschung.
Theoretische Grundlagen und praktische Erfahrungen. 2. Auflage. Wiesbaden:
(Gabler), S. 144–160.
Bauer Media (2001). Der Multiplying Effekt: Print plus Online. CrossmediaStudie auf Basis des TV Movie Future Package. Hamburg: (Bauer Media), o.J.
(2001).
Bolz, Norbert F. (1998). Abgestempelt: Zu alt! Interview mit Norbert F. Bolz. In:
Hörzu, Heft 18 vom 30.4.1998, S. 6–8.
BVM. Bundesverband deutscher Marktforscher e.V. URL: http//www.bvm.org
168
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
CN 7.0 (2003). Communication Networks. Markt-/Media-Studie des FOCUS
Magazin Verlags. Erstmals 1995/96 als Nachbefragung zur TdWI’95. Seit CN
5.0 (2001) wird für die Online-Nutzung insgesamt ein Reichweitenwert „Nutzer
pro Tag“ (Nutzungswahrscheinlichkeit) ausgewiesen.
Csikszentmihalyi, Mihaly (1991). Das Flow-Erlebnis. Jenseits von Angst und
Langeweile: im Tun aufgehen. Stuttgart: Klett-Cotta, 1991. (Originalausgabe:
Beyond Boredom and Anxiety – the Experience of Play in Work and Games. San
Francisco, Washington, London: Jossey-Bass-Publishers, 1975.)
Fittkau & Maaß (2001). Internet-Anfänger surfen anders. In: Context 05/01, vom
13. März 2001, S. 12.
GfK Online-Monitor. Seit Jahreswende 1997/98 halbjährlich durchgeführte
repräsentative Telefonumfrage (CATI) unter 8000 Personen im Alter von 14
bis 69 Jahre. Ab der 3. bis zur 6. Welle wurden Nutzungsanteile von bis zu 80
Online-Angeboten nach dem MA-Modell erhoben, die gemäß Auftraggeberbeschluss nicht als Reichweiten publiziert wurden.
Göritz, Anja; Reinhold, Nicole und Batinic, Bernad: Marktforschung mit OnlinePanels: State of the Art. In: Planung & Analyse 3/2000, S. 62–67.
Gormley, William T. jr. (1976). The Effects of Newspaper-Television CrossOwnership on News Homogenity. Capel Hill: University of North Carolina,
1976. Cross-Ownership-Verhältnisse auf lokaler/regionaler Ebene führten in den
USA zur Einschränkung publizistischer Vielfalt.
Grüne, Heinz: Online und Online-Forschung in Deutschland – eine schwierige
Kombi-Nation?! In: Planung & Analyse 1/98, S. 10–13.
INFOnline. Im Jahr 2002 aus der IVW ausgegründete GmbH, Gesellschafter
sind die Medienverbände BDZV, DMMV, VDZ, VPRT und andere Verbände.
URL: http://www.infonline.de, 24.12.2003.
IVW. Informationsgemeinschaft zur Feststellung der Verbreitung von
Werbeträgern e.V. IVW-Online weist monatlich Kontakt-Reichweiten in Form
von Visits und Page-Impressions für alle registrierten Online-Angebote/
Netzwerke/Vermarktungsgemeinschaften aus. URL: http://www.ivwonline.de,
im Menü: Daten, im Untermenü: SZM, 24.12.2003.
Luhmann, Niklas (1995). Die Realität der Massenmedien. Opladen (Westdeutscher Verlag), 19952.
169
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
MA (2003). Media Analyse. Hrsg.: Arbeitsgemeinschaft Media Analyse e.V.
(AG.MA), und Media Micro Census GmbH. Die MA erhebt seit 2001 (Trend
Herbst) die Internet-Nutzung, weist aber keine Reichweiten aus. URL: http://
www.agma-mmc.de, 24.12.2003.
MMXI. Jupiter MMXI Deutschland. Joint Venture von Jupiter Media Metrix
(USA) und den europäischen Marktforschungsunternehmen GfK AG, Ipsos S.A.
und der Observer Group. Anbieter eines NetMetrix-Panels in Deutschland seit
September 1999. URL: http://www.jupitermmxi.com, Link: Die Top 10, NutzerReichweiten der Top Ten Properties und Domains, 10.03.2002.
Mosmann, Helmut (1999). PAPI - CAPI - CATI: Ambivalenter technischer Fortschritt in der Datenerhebung. In: planung & analyse 1/99, S. 50–55.
NetRatings. Nielsen//NetRatings im VNU Konzern. Anbieter eines NetMetrix-Panels in Deutschland seit Oktober 2000. URL: http://www.nielsennetratings.com., Menü: Research Findings, Link: International, Link: Germany
(auch URL: http://www.netratings.com/corporate/corp_hot_off_the_net_i.jsp#
germany), Nutzer-Reichweiten der Top Ten Properties des aktuellen Monats,
24.12.2003.
NetValue. NetValue SA. Paris. Anbieter eines NetMetrix-Panels in Deutschland
seit Oktober 1999. URL: http://www.netvalue.com, im Menü: Hot News,
Untermenü: Top Rankings. Nutzer-Reichweiten der Top Ten Properties und
Domains für jeden Monat ab Januar 2000, 10.03.2002.
Nowak, Thomas P., Hoffman, Donna L. (1998). Measuring the Flow Construct
in Online Environments: A Structural Modeling Approach. Project 2000, Owen
Graduate School of Management, Vanderbilt University, Yiu-Fai Yung, L.L.
Thurstone Psychometric Laboratory, UNC Chapel Hill, May 1998.
Online – Offline. Hrsg.: Spiegel-Verlag, Hamburg 1997 und Online – Offline 2
von 1999. URL: http://www.media.spiegel.de, 24.12.2003.
Online-Marktforschung. Theoretische Grundlagen und praktische Erfahrungen.
Hrsg. v. Axel Theobald, Axel Dreyer, Thomas Starsetzki. Wiesbaden: (Gabler
Verlag), 2001 (1. Auflage) und 2003 (2. überarbeitete und erweiterte Auflage).
Online Research. Methoden, Anwendungen und Ergebnisse. (Internet und Psychologie. Neue Medien in der Psychologie. Band 1) Hrsg. v. Batinic, Bernad u.a.
Göttingen: Hogrefe Verlag für Psychologie, 1999.
ORM (2003). Online Reichweiten Monitor 2003 II. Hrsg.: Arbeitsgemeinschaft
170
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Internet Research e.V. (AGIREV). Online-Markt-/Media-Studie, erstmals
veröffentlicht am 6.3.2002. Die erste Halbwelle basiert auf 6500 Interviews.
Mit der zweiten Halbwelle ab Juni werden zweimal jährlich rollierend auf
13 000 Interviews die Reichweiten von Online-Angeboten auf Basis „Nutzer pro
Woche“ sowie die Online-Nutzung insgesamt auf Basis „Nutzer pro Woche“
und „Nutzer pro Tag“ zzgl. zu Hause und außer Haus ausgewiesen. Siehe URL:
http//www.agirev.de im Menü: ORM 2003 II: Codeplan. Download: PDF-Datei,
24.12.2003; Mediazählung (mittels MDS Mediaplanungssoftware auch unter
URL: http://193.7.254.184/start/agirev/), Ergebnisse Download: EXCEL-Datei,
24.12.2003.
Reigber, Dieter (Hrsg.): Frauen-Welten. Marketing in der postmodernen Gesellschaft – ein interdisziplinärer Forschungsansatz. Düsseldorf: (ECON), 1993.
Reigber, Dieter: Der Einsatz von Zielgruppenmodellen als Instrument für das
Anzeigenmarketing. In: Scherer, Helmut und Brosius, Hans Bernd (Hrsg.): Zielgruppen, Publikumssegmente, Nutzergruppen. Beiträge aus der Rezeptionsforschung. München: (R. Fischer Verlag), 1997 (Angewandte Medienforschung;
Bd. 5), S. 114–140.
Reigber, Dieter: Markt- und Mediaforschung über das Internet. Veröffentlichte
Präsentation zu den Daten des GfK Online-Monitors 2. Welle im Sommer 1998.
Hrsg. Interactive Media (Axel Springer Verlag), Hamburg.
Reigber, Dieter: Web Nutzungsmotiv-Studie. Heavy User geben Auskunft.
URL: http://www.interactivemedia.de/home_f/index.html im Menü: Service,
Untermenü: Studien, Link: Heavy-User-Studie. Wie muss eine Website gestaltet
sein, damit sie der User nutzt? Download: Powerpoint-Datei, 10.03.2002.
Reigber, Dieter; Spohrer, Michael: Research Strategies in Fragmented Media
Markets. In: Worldwide Readership Research Symposium 9. Florence 1999.
Session Papers. Ed. BMRB International and Ipsos-RSL. London, 1999,
pp. 209–216.
Reigber, Dieter und Spöhrer, Jochen: Agentenbasierte Marktforschung. In: Axel
Theobald, Marcus Dreyer, Thomas Starsetzki (Hrsg.): Online-Marktforschung.
Theoretische Grundlagen und praktische Erfahrungen. Wiesbaden: Gabler,
S. 391–406.
Reigber, Dieter und Frost, Carola: Online-Reichweitenforschung in Deutschland. In: Axel Theobald, Marcus Dreyer, Thomas Starsetzki (Hrsg.): OnlineMarktforschung. Theoretische Grundlagen und praktische Erfahrungen.
2. Auflage. Wiesbaden: (Gabler), S. 115–131.
171
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Ring, Erp: Signale der Gesellschaft. Psychologische Diagnostik in der Umfrageforschung. Göttingen, Stuttgart: (Verlag für Angewandte Psychologie) (Hogrefe), 1992.
SevenOne Interactive: @facts extra. Online-Nutzer-Typen. URL: http://
www.71i.de, 24.12.2003.
SevenOneMedia: Semiometrie. Der Zielgruppe auf der Spur. URL: http://
www.sevenonemedia.de/research 24.12.2003.
SevenOneMedia: Mediaplanung mit Semiometrie. Top Thema August 2002. URL:
http://www.sevenonemedia.de/research/zielgruppen/semiometrie/mediaplanung/
index.php PDF-Download 24.12.2003.
Sinus Sociovision, Heidelberg. Sinus Milieus. URL: http://www.sociovision.com
24.12.2003.
Spiegel Verlag: Yellomiles. Crossmedia Case Study. Chartpräsentation Hrsg.:
Spiegel Gruppe, Hamburg: 2003.
TdWI: Typologie der Wünsche Intermedia 1995 bis 2001. Hrsg. v. TdW Intermedia GmbH & Co.KG, Offenburg (BAC Burda Advertising Center GmbH der
Hubert Burda Medien). Bereits 1995 konnte der Online-Nutzeranteil (QuasiReichweite) bestimmt werden, und seit der Trendwelle TdWI 99/2000 wird
ein Reichweitenwert für „Online-Nutzer pro Tag“ (Nutzungswahrscheinlichkeit)
ausgewiesen.
VDZ: Handbuch Crossmedia Werbung Hrsg. v. Verband Deutscher Zeitschriftenverleger. Berlin: VDZ, 2003.
VuMA: Verbraucher- und Medienanalyse. Hrsg. ARD-Werbung, ZDF-Werbefernsehen und Radio Marketing Service (RMS). Markt-/Media-Studie mit jährlicher
Erscheinungsweise seit 1995. Sie dient als Ergänzung zur TV-/Radio-Mediaplanung. In der aktuellen VuMA 2003 werden auch Fragen zum Online-Nutzungsverhalten gestellt. URL: http://www.vuma.de, 24.12.2003.
Wenzel, Olaf: Webdesign, Informationssuche und Flow. Nutzerverhalten auf
unterschiedlich strukturierten Websites. Reihe: Electronic Commerce; 6. Lohmar,
Köln: (Josef Eul Verlag), 2001.
ZAW. Rahmenschema für Werbeträger-Analysen. Hrsg.: Zentralverband der
deutschen Werbewirtschaft. Bonn, (Edition ZAW), 1994.
172
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Reichweitenermittlung für Online- und
andere Medien
– Forschungskonzept und Erkenntnisse –
Von Jochen Hansen und Johannes Schneller
Zur Einführung
Mit der rasanten Ausbreitung des Internet ab Mitte der 1990er-Jahre wurden
auch schnell Reichweiten-Messungen für die Internet-Angebote gefordert und
eingeführt. Dabei kann man internetseitenbezogene und nutzerbezogene Ansätze
unterscheiden.
• Die seitenbezogenen Messungen erfolgen technisch, sie erfassen als wichtigste Merkmale: die Zahl zusammenhängender Besuche der einzelnen WebAngebote (Visits) sowie die Anzahl der Seiten, die bei den Visits aufgerufen
werden (Page-Impressions). Dabei werden aber allein Nutzungsvorgänge
erhoben, aus ihnen lässt sich nicht darauf schließen, in welchem Grad es
sich dabei um dieselben oder verschiedene Nutzer handelt (also wie groß
die Brutto- und Nettoreichweiten sind) und durch welche Merkmale sich die
Nutzer auszeichnen, sich von denen anderer Angebote abheben.
• Der nutzerbezogene Ansatz ermittelt hingegen exakt, von wie vielen und
welchen Personen ein Online-Angebot genutzt wird, welche Merkmale für
seine Nutzer besonders prägend sind, wodurch diese sich von den Nutzern
konkurrierender Angebote unterscheiden.
Wie für Printmedien in der Regel die IVW-Messungen zur verkauften und verbreiteten Auflage nicht ausreichen, um ihre Leistungsfähigkeit im einzelnen
nachzuweisen, wird auch die Leistungsfähigkeit der Online-Angebote nicht
ausreichend durch rein seitenbezogene Ermittlungen belegt. Insofern war der
frühzeitige Ruf nach nutzerbezogenen Forschungsansätzen plausibel.
Nutzerbezogen und repräsentativ ausgewählt
Zur Untersuchungstechnik: Mit wachsender Internet-Ausbreitung wurde neben
der mündlich-persönlichen, telefonischen und postalischen Erhebungstechnik
auch die Befragung via Internet erwogen. Auf den ersten Blick mag daran verlocken, dass schnell beachtliche Teilnehmerzahlen erreicht werden können, man
173
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
auf Interviewer verzichten kann, sich Befragungsabläufe technisch exakt und
kontrolliert steuern lassen. Das große Manko von Internet-Erhebungen ist aber
nach wie vor: Bis heute hat sich kaum etwas daran geändert, dass die Teilnehmer an Online-Erhebungen weit überdurchschnittlich internetmotiviert sind,
sie damit also keineswegs als repräsentativ für alle Internet-Nutzer angesehen
werden dürfen. Die Allensbacher Computer- und Technik-Analyse (ACTA1)
prüft mehrmals im Jahr die Bereitschaft, sich online befragen zu lassen – und
diese hat sich in den letzten Jahren keineswegs erhöht, sondern nimmt von Jahr
zu Jahr eher ab. Anders als bei Face-to-Face-Befragungen, bei der die breite
Mehrheit der Bevölkerung wie auch der Internet-Nutzer bereit ist, sich erneut
befragen zu lassen (in der AWA 2003 63 Prozent der Bevölkerung „sehr gern“
oder „gern“, 67 Prozent sind es unter den Online-Nutzern), erklärt die Mehrheit
der Internet-Nutzer ausdrücklich, daß man sich nicht an online durchgeführten
Befragungen beteiligen will (lediglich für ein Drittel kam oder käme eine Beteiligung in Betracht).
Übersicht 1
Wie gravierend die Bereitschaft, sich online befragen zu lassen, bereits sinkt,
wenn man nicht mehrmals täglich, sondern nur einmal täglich oder weniger
häufig im Internet ist – und dies trifft auf mehr als drei Viertel der Onliner zu –,
belegt Schaubild 2.
1
Bis 2002 war ACTA die Abkürzung für Allensbacher Computer- und Telekommunikations-Analyse,
seit 2003 heißt sie Allensbacher Computer- und Technik-Analyse.
174
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Übersicht 2
Auch wenn man bei über das Internet erhobenen Daten versucht, die Relationen
von starken und schwachen Internet-Nutzern so zu gewichten, wie sie sich in
repräsentativen Studien zeigen (das heißt, die schwach nutzenden Befragten
werden höher, die starken Nutzer heruntergewichtet), löst das die Grundschwäche
nicht. Mögen sich dadurch auch Randergebnisse realistischer darstellen, so reduziert eine Gewichtung die effektive Stichprobengröße (sie ist wichtig für alle
Signifikanzberechnungen), und dies umso mehr, je stärker entscheidende Merkmale der Mediennutzung anzupassen sind. Und auch sehr gravierende Gewichtungen können die Struktur von hoch internetmotivierten Befragten nur sehr
begrenzt korrigieren. Befunde aus Online-Befragungen zu Medienreichweiten
und Strukturen ihrer Nutzer wären deshalb stets anzweifelbar, damit kann man
sie nicht als ernsthafte Grundlage für Reichweitenmessungen der Online- (aber
auch der Print-) Medien ansehen.
Online-Nutzer – in breiten bevölkerungsrepräsentativen
Markt-Media-Studien
Allgemein akzeptierte Reichweitenstudien zur Streuplanung der Online-Angebote müssen stets von einem repräsentativen Querschnitt aller Internet-Nutzer
ausgehen, das heißt: Personen, die das Internet häufig, gelegentlich oder selten
175
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
nutzen, müssen hier in ihren realistischen Anteilen vertreten sein. Dies gelingt
am gültigsten und zuverlässigsten in Studien, die sich an die Bevölkerung insgesamt richten – und innerhalb derer die Internet-Nutzer abgegrenzt werden.
Diesem Ansatz folgen in Deutschland zum Beispiel der Online ReichweitenMonitor der Arbeitsgemeinschaft Internet Research e.V. (AGIREV), oder vom
Allensbacher Institut speziell die ACTA, und auch die Allensbacher Marktund Werbeträger-Analyse (AWA) erfasst wichtige Kerndaten zum Internet. Die
ACTA wird seit 1997 jährlich in zwei Wellen auf einer Basis von rund 10 000
Face-to-Face-Interviews erhoben, sie wendet sich an einen repräsentativen Querschnitt der Bevölkerung im Alter von 14 bis 64 Jahren.
• In dieser Studie wurden im Frühjahr 2003 mit 53,5 Prozent mehr InternetNutzer denn je abgegrenzt, zur Ausbreitung dieses Kreises siehe Schaubild 3.
• Schaubild 4 zeigt als wichtigen Rahmenbefund zur Internet-Beziehung, dass
2003 mit fast 50 Prozent der Onliner mehr denn je von ihnen auch täglich im
Internet sind (allerdings noch immer die Hälfte nicht täglich).
• Schaubild 5 belegt, dass man pro Nutzungstag jedoch nicht länger im Internet ist, nach wie vor meistens weniger als eine Stunde.
Übersicht 3
176
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Übersicht 4
Übersicht 5
177
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Wie man mit dem Internet im einzelnen umgeht, erfasst die ACTA durch zahlreiche weitere Fragen, zum Beispiel, wie häufig man das Internet für verschiedene
Zwecke und Inhalte nutzt, zu welchen Käufen es per Internet kommt, in welchen
Handelskanälen, welche Zahlungsform man bei Online-Käufen präferiert bis hin
zur Ermittlung, inwieweit man Werbebanner anklickt. Mit diesen Merkmalen
lassen sich Zielgruppen sehr konkret abgrenzen und anschaulich illustrieren. Im
Folgenden konzentrieren wir uns jedoch primär auf Ermittlungen der Reichweiten der Online-Angebote, weit über 100 wurden in der ACTA seit 1998 erfasst.
Reichweitenermittlung der Online-Angebote
Zur Ermittlungsform: Die Erhebung erfolgt mithilfe von Kärtchen zur Identifikation, auf denen die kennzeichnenden Logos der Internet-Angebote abgebildet
sind – vergleichbar, wie die Reichweiten und Nutzerkreise von Print- oder elektronischen Werbeträgern in den meisten Markt-Media-Studien erhoben werden.
Dazu werden zwei Grundfragen gestellt:
• eine Frequenzfrage, wie häufig man das jeweilige Internet-Angebot nutzt.
Fünf Abstufungen qualifizieren für den weitesten Nutzerkreis: täglich, fast
täglich/mehrmals in der Woche/einmal in der Woche/ein- bis dreimal im
Monat/seltener als einmal im Monat (die Restkategorien dieses Fragemodells
lauten: nur dem Namen nach bekannt/unbekannt).
• Der jeweils weiteste Nutzerkreis beantwortet die Recency-Frage, wann man
das jeweilige Online-Angebot zuletzt genutzt hat, mit vier Ausprägungen:
gestern/innerhalb der letzten sieben Tage/etwa zwei bis vier Wochen her/
länger als vier Wochen her.
Ausgehend vom weitesten Nutzerkreis werden Nutzungswahrscheinlichkeiten
gebildet (für einzelne Segmente, die vor allem nach den Kategorien der Frequenzfrage bestimmt werden; als Außenkriterium werden die „Nutzer in den
letzten vier Wochen“ bzw. die „Nutzer in den letzten sieben Tagen“ herangezogen).
Als aussagekräftige Maßstäbe liegen damit vor:
• weitester Nutzerkreis,
• Nutzerkreis pro Monat,
• Nutzer pro Woche;
je breiter der Kreis von Onlinern insgesamt wird, desto stärker orientieren sich
Online-Reichweitenbewertungen auf die Anteile derer, die das Internet mindestens einmal wöchentlich nutzen.
178
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Damit werden die Reichweiten von Online-Medien in der ACTA wie die
der Printmedien im Rahmen der AWA nach dem Prinzip einer zeitlich nicht
einschränkenden Abfrage erhoben, bei der auch allen seltenen Nutzern der
Online-Angebote die Frage nach dem letzten Kontakt gestellt wird (darauf
kommen wir noch zurück).
Reichweiten von Online-Angeboten 2003
Die ACTA 2003 ermittelt die Nutzerkreise von knapp 100 Internet-Angeboten
und von einer ähnlich großen Zahl von (fast allen wichtigen) Printmedien und
Tarifkombinationen, von einem Dutzend TV-Programmen sowie Kinobesucher;
es handelt sich also um eine Multi-Media-Marktstudie, mit der Werbekampagnen intermedial geplant werden können.
Die Reichweiten aller Online-Angebote dokumentiert Übersicht 6, geordnet
nach den wöchentlich erreichten Anteilen unter allen Internet-Nutzern. Gezeigt
werden sie aber auch für das Monatsintervall und für den weitesten Nutzerkreis
sowie als Index, in welchem Grad der weiteste Nutzerkreis die jeweiligen Angebote wöchentlich oder monatlich nutzt.
Bezogen auf die einzelnen Angebote zeigt sich hier zum Beispiel,
• dass man die insgesamt am häufigsten besuchten Online-Angebote wie
Google und T-Online auch im höchsten Grad innerhalb eines Wochenzeitraums nutzt, nämlich zu über 60 Prozent (Index, bezogen auf den weitesten
Nutzerkreis),
• dass die insgesamt auch noch stark vertretenen Adressen Ebay oder Yahoo
Deutschland aber in deutlich geringeren Anteilen wöchentlich genutzt werden
(zu 54 bzw. 38 Prozent innerhalb des weitesten Nutzerkreises).
• Oder zu den Online-Angeboten von Printmedien, gemessen an dem Maßstab
der wöchentlichen Reichweite: hier erreichen die Internet-Angebote der lokalen und regionalen Tageszeitungen mit wöchentlich 13,4 Prozent am meisten
Internet-Nutzer, gefolgt von Bild.de mit 6,2 Prozent, Spiegel Online mit 5,3
Prozent sowie den Online-Angeboten von FOCUS (4,4 Prozent), Kicker (4,0
Prozent), Stern (3,9 Prozent), Computer Bild und Chip (jeweils 3,4 Prozent).
Alle übrigen in der ACTA erhobenen Online-Angebote von Printmedien
erreichen wöchentlich weniger als 3 Prozent. Damit nehmen die OnlineAngebote von Printmedien alles in allem eher einen Mittel- als einen Spitzenplatz in der Hitliste der genutzten Internet-Adressen ein.
• Schließlich lässt sich aus der Summenzeile ablesen, dass die Internet-Nutzer im Durchschnitt bei
179
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
• rund 16 dieser Angebote zum weitesten Nutzerkreis gehören (genau 15,9),
• dass sie rund zehn Angebote mindestens monatlich nutzen (9,7)
• und bei rund fünf Angeboten zu den wöchentlichen Nutzern gehören (5,2).
Reichweite der Online-Angebote 2003
Onliner, die Dienst/Angebot nutzen –
Anteile in %
–
–
x
–
–
x
–
x
–
–
–
–
–
x
x
x
–
–
–
–
pro
Woche
Google Deutschland
51,5
T-Online.de
41,5
Ebay
38,2
Yahoo Deutschland
24,4
Web.de
21,8
Freenet.de
19,8
AOL.de
16,5
AOL (abonnierter Dienst)
16,1
Lycos
16,0
GMX
13,8
Angebot einer lokalen oder reg. Tagesztg. 13,4
Die Bahn DB
12,4
MSN.de
10,8
Fireball
9,6
Netscape.de
8,7
Wetter.com
8,6
Wissen.de
7,6
Geizkragen.de
7,5
Wetteronline.de
6,3
Bundesliga.de
6,3
Bild.de
6,2
RTL World
5,3
Spiegel Online
5,3
L'Tur
5,2
ADAC online
5,0
AutoScout24
5,0
MTV.de
4,9
Kostenlos.de
4,6
Focus Online
4,4
Sport1
4,4
Tui.de
4,3
AltaVista
4,1
n-tv online
4,1
Mobile.de
4,0
Kicker online
4,0
Stern.de
3,9
Falk
3,5
Computer Bild online
3,4
Chip Online
3,4
Boerse-online.de
3,3
ProSieben Online
3,1
SAT.1 online
3,0
Viva.tv
3,0
CompuServe.de
2,9
Tiscali
2,9
Sueddeutsche.de
2,7
PC WELT.de
2,7
Giga.de
2,6
Zeit.de
2,5
CompuServe (abonnierter Dienst)
2,4
Autobild.de
2,3
Boerse.de
2,3
insgesamt
im
(weitester
Monat Nutzerkreis)
65,8
74,4
51,6
64,4
56,9
70,9
44,0
64,0
30,9
43,0
29,5
42,5
23,6
35,8
19,8
25,6
29,7
48,0
18,5
26,9
22,9
34,0
29,6
54,1
18,3
28,0
21,4
37,2
12,6
22,5
18,1
27,7
19,5
33,0
15,2
26,5
12,6
20,7
10,3
15,2
12,9
19,9
12,7
23,1
11,7
20,5
13,9
32,5
14,2
30,1
13,7
27,3
9,9
14,9
11,4
20,9
11,6
20,1
7,6
11,4
12,9
31,6
10,1
20,7
7,4
13,1
9,9
17,4
6,4
10,1
10,8
20,7
8,7
16,1
10,1
17,2
8,4
13,3
6,1
9,5
8,6
17,2
9,0
18,0
7,6
13,2
6,6
14,5
4,9
9,6
7,0
12,2
5,7
9,7
4,7
7,3
6,4
11,4
3,8
6,7
6,7
11,5
4,5
6,6
Index
pro
Woche
69
64
54
38
51
47
46
63
33
51
39
23
39
26
39
31
23
28
30
41
31
23
26
16
17
18
33
22
22
39
14
20
31
23
40
19
22
20
26
35
18
17
23
20
30
22
28
36
22
36
20
35
insgesamt
im
(weitester
Monat Nutzerkreis)
88
100
80
100
80
100
69
100
72
100
69
100
66
100
77
100
62
100
69
100
67
100
55
100
65
100
58
100
56
100
65
100
59
100
57
100
61
100
68
100
65
100
55
100
57
100
43
100
47
100
50
100
66
100
55
100
58
100
67
100
41
100
49
100
56
100
57
100
63
100
52
100
54
100
59
100
63
100
64
100
50
100
50
100
58
100
46
100
51
100
57
100
59
100
64
100
56
100
57
100
58
100
68
100
.../
180
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Onliner, die Dienst/Angebot nutzen –
/...
Anteile in %
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
Heise online
ZDNet Deutschland
Handy.de
PC Games.de
Cinema online
Die Welt.de
Comdirect
Premiere Online
GameStar.de
Travelchannel
Handelsblatt.com
Ricardo.de
WirtschaftsWoche.de
Brigitte.de
Uboot
TV Movie.de
PC-Shopping Online
TV Spielfilm Online
Bravo.de
FAZ.net
Financial Times Deutschland.de
Edgar.de
Gamigo.de
Tomorrow Online
Freundin online
Consors
Ciao.com
Jamba! Online
Fit for fun Online
Teltarif.de
TV Today Online
Computerwoche Online
Finanzen.net
Onvista
Yam.de
Wallstreet:online
Manager Magazin online
Qualimedic
TecChannel.de
Finanztreff.de
Amica Online
Handelsblatt Junge Karriere Online
DMEuro.com
Max Online
Macwelt Online
Vogue.com Deutschland
Index
pro
Woche
2,1
2,1
2,0
1,9
1,8
1,8
1,8
1,7
1,7
1,6
1,5
1,5
1,4
1,4
1,4
1,4
1,3
1,3
1,3
1,3
1,3
1,3
1,2
1,1
1,1
1,1
1,1
1,0
0,9
0,9
0,8
0,8
0,8
0,8
0,7
0,7
0,5
0,5
0,5
0,5
0,4
0,4
0,4
0,3
0,3
0,2
insgesamt
im
(weitester
Monat Nutzerkreis)
5,0
7,2
4,2
6,5
5,6
11,6
4,8
9,2
6,1
11,9
5,5
10,1
3,4
6,2
3,6
6,3
3,2
5,6
4,8
10,6
4,3
7,1
4,2
9,9
3,4
6,9
3,4
6,9
3,2
7,2
3,1
6,5
3,7
6,2
3,6
6,8
3,5
6,9
3,0
6,0
2,8
5,3
2,4
5,5
2,4
4,6
4,0
9,3
2,6
5,2
2,5
4,6
2,2
4,6
2,9
8,6
3,5
8,3
2,3
5,1
2,7
5,8
2,3
5,0
1,7
2,5
1,6
2,8
2,2
5,0
1,8
3,5
1,4
3,1
1,4
2,8
1,2
2,5
1,1
2,1
1,6
3,7
1,3
3,6
1,3
2,2
1,9
4,7
1,2
2,4
1,2
2,4
518,8
971,8
1593,5
33
61
100
Index für 98 Internet-Angebote
pro
Woche
29
32
17
21
15
18
29
27
30
15
21
15
20
20
19
22
21
19
19
22
25
24
26
12
21
24
24
12
11
18
14
16
32
29
14
20
16
18
20
24
11
11
18
6
13
8
33
insgesamt
im
(weitester
Monat Nutzerkreis)
69
100
65
100
48
100
52
100
51
100
54
100
55
100
57
100
57
100
45
100
61
100
42
100
49
100
49
100
44
100
48
100
60
100
53
100
51
100
50
100
53
100
44
100
52
100
43
100
50
100
54
100
48
100
34
100
42
100
45
100
47
100
46
100
68
100
57
100
44
100
51
100
45
100
50
100
48
100
52
100
43
100
36
100
59
100
40
100
50
100
50
100
61
100
Online-Angebote von
– Printmedien
x elektronischen Medien
Basis: Internetnutzer im Alter von 14 bis 64 Jahre
Quelle: ACTA
Übersicht 6
181
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Meistens sporadische Nutzung
Dass vom weitesten Nutzerkreis lediglich rund ein Drittel zu den wöchentlichen
Nutzern gehört, die meisten also eher gelegentliche oder seltene Nutzer sind,
trifft keineswegs nur für die Online-Medien zu, sondern auch für die meisten
Printmedien. Zum Beispiel wird der Stern von 19 Prozent des weitesten Leserkreises regelmäßig oder häufiger gelesen, 38 Prozent lesen ihn gelegentlich und
43 Prozent selten; für Der Spiegel lauten die Relationen 23, 35 und 42 Prozent,
für FOCUS 20, 35 und 45 Prozent.
Meistens nicht regelmäßige Leser
Übersicht 7
Die sporadischen Nutzer sind deshalb besonders wichtig, weil ihre Bedeutung
im Printbereich in den letzten Jahrzehnten erheblich zugenommen hat, und
zwar parallel zur gewaltig gestiegenen Zahl von Printtiteln und einer insgesamt
eher stagnierenden Dauer der Printmediennutzung. Dem muss ein Reichweitenerfassungsmodell gerecht werden, wobei die Grundlagenforschung zeigt, dass
durch zeitlich begrenzte Filterfragen die unregelmäßigen Leser von Printmedien überdurchschnittlich davon abgehalten werden, sich als Nutzer im Erscheinungsintervall einzustufen; deshalb ermitteln die Allensbacher Mediastudien die
Reichweiten ohne Fragen mit einem zeitlich bestimmten Filter für die RecencyFrage. Wie gravierend sich Reichweitenmessungen je nach Fragemodell unter182
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
scheiden können, ist experimentell belegt, siehe z.B. Tennstädt, Friedrich/
Hansen, Jochen: Validating the Recency and Through-the-Book-Techniques. In:
Harry Henry (Hrsg.): Readership Research Symposium: Theory and Practice.
Proceedings of the First International Symposium New Orleans 1981. London
1982, S. 196–221.
Reichweitenentwicklung bei Online-Angeboten von Printmedien
Bei rund der Hälfte der 2003 erfassten Online-Angebote handelt es sich um
solche von Medien, die es unter demselben Namen auch als Print- oder elektronisches Medium gibt.
Eine Reihe davon wird in der ACTA seit 1998 erfasst, für 15 Online-Angebote
von Printtiteln zeigt Übersicht 8 die Trends in der Bevölkerung insgesamt –
wobei sich die meisten Reichweiten eindeutig positiv entwickelten.
Wie sich die Reichweiten der Online-Angebote von ausgewählten
Printmedien in der Bevölkerung entwickelten
1998
%
Bevölkerungszahl
insgesamt
1999
Mio.
%
51,1
2000
Mio.
%
50,9
Mio.
2001
%
51,1
Mio.
2002
%
50,9
Mio.
2003
%
50,7
Mio.
50,7
Weitester Nutzerkreis der
Online-Angebote von –
Focus
3,6
1,84
4,4
2,24
6,8
3,47
6,6
3,33
8,0
4,03
10,7
5,46
Spiegel
2,9
1,46
4,0
2,03
5,4
2,77
5,7
2,91
7,7
3,89
11,0
5,56
Stern
2,0
1,03
2,8
1,43
4,5
2,31
5,8
2,93
7,8
3,94
11,1
5,62
TV Spielfilm
1,6
0,80
1,4
0,72
2,1
1,10
3,3
1,67
3,9
1,98
3,6
1,85
–
–
–
–
3,0
1,53
4,8
2,45
6,7
3,38
6,4
3,23
Cinema
Fit for fun
–
–
–
–
1,8
0,92
3,2
1,66
4,8
2,41
4,4
2,25
Tomorrow
–
–
–
–
3,5
1,79
4,5
2,29
4,2
2,12
5,0
2,52
Chip
2,4
1,24
2,3
1,18
2,9
1,48
3,5
1,77
4,7
2,38
7,1
3,61
PC Welt
1,9
0,97
2,4
1,21
2,7
1,36
4,3
2,18
5,2
2,63
5,2
2,63
Wirtschaftswoche
1,3
0,67
1,8
0,92
2,1
1,06
2,6
1,34
2,9
1,48
3,7
1,87
Die Zeit
1,3
0,69
1,3
0,81
1,3
0,92
2,9
1,49
3,9
2,00
6,1
3,09
Handelsblatt
1,5
0,77
1,9
0,95
2,1
1,07
2,7
1,39
3,4
1,75
3,8
1,93
–
–
1,1
0,57
1,8
0,93
3,3
1,65
4,7
2,40
6,6
3,31
Die Welt
1,4
0,70
1,3
0,66
1,6
0,81
2,3
1,15
3,7
1,89
5,4
2,74
Bild
1,4
0,69
1,4
0,73
2,7
1,39
4,2
2,14
7,3
3,70
10,7
5,40
44,3
22,91
59,6
30,35
78,9
Süddeutsche Zeitung
39,98 100,6 51,08
– = in diesem Jahr nicht erhoben
Basis: Bevölkerung im Alter von 14 bis 64 Jahre
Quelle: ACTA 1998 bis 2003
Übersicht 8
Soweit die Gesamtentwicklungen; wenn dabei die meisten Online-Angebote
auch eine absolut erhöhte Nutzerzahl haben, so bedeutet dies keineswegs automatisch, dass damit auch ihre Anteile von erreichten Onlinern zunehmen. Diese
Reichweiten verringerten sich für die meisten Angebote in den letzten Jahren
183
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
sogar, und zwar trotz absolut meistens noch gestiegener Nutzerzahlen. Dies ist
natürlich nur möglich, weil sich die Grundgesamtheit der Internet-Nutzer insgesamt von Jahr zu Jahr deutlich erhöht hat. Übersicht 9 dokumentiert die Entwicklung der absoluten Nutzerzahlen und der Reichweiten unter den Onlinern.
Wie sich die Reichweiten der Online-Angebote von ausgewählten
Printmedien bei Internetnutzern entwickelten
1998
%
1999
Mio.
%
6,01
Zahl der Internetnutzer
2000
Mio.
%
8,58
2001
Mio.
%
14,7
2002
Mio.
%
20,3
2003
Mio.
%
23,3
Mio.
27,1
Weitester Nutzerkreis der
Online-Angebote von –
Focus
30,6
1,84
26,1
2,24
23,7
3,47
16,4
3,33
17,3
4,03
20,1
5,46
Spiegel
24,3
1,46
23,7
2,03
18,9
2,77
14,3
2,91
16,7
3,89
20,5
5,56
5,62
Stern
17,1
1,03
16,6
1,43
15,8
2,31
14,4
2,93
16,9
3,94
20,7
TV Spielfilm
13,2
0,80
8,4
0,72
7,5
1,10
8,2
1,67
8,5
1,98
6,8
1,85
10,4
1,53
12,0
2,45
14,5
3,38
11,9
3,23
2,25
Cinema
–
–
–
–
Fit for fun
–
–
–
–
6,3
0,92
8,2
1,66
10,3
2,41
8,3
Tomorrow
–
–
–
–
12,2
1,79
11,3
2,29
9,1
2,12
9,3
2,52
Chip
20,6
1,24
13,8
1,18
10,1
1,48
8,7
1,77
10,2
2,38
13,3
3,61
PC Welt
16,1
0,97
14,1
1,21
9,3
1,36
10,7
2,18
11,3
2,63
9,7
2,63
Wirtschaftswoche
11,2
0,67
10,7
0,92
7,2
1,06
6,6
1,34
6,3
1,48
6,9
1,87
Die Zeit
11,4
0,69
9,4
0,81
6,3
0,92
7,3
1,49
8,6
2,00
11,4
3,09
Handelsblatt
12,8
0,77
11,0
0,95
7,3
1,07
6,8
1,39
7,5
1,75
7,1
1,93
6,6
0,57
6,3
0,93
8,1
1,65
10,3
2,40
12,2
3,31
Süddeutsche Zeitung
–
–
Die Welt
11,6
0,70
7,7
0,66
5,5
0,81
5,7
1,15
8,1
1,89
10,1
2,74
Bild
11,5
0,69
8,5
0,73
9,5
1,39
10,5
2,14
15,9
3,70
19,9
5,40
156,3 22,91 149,2 30,35 171,5 39,98 188,2 51,08
– = in diesem Jahr nicht erhoben
Basis: 14- bis 64jährige Internetnutzer
Quelle: ACTA 1998 bis 2003
Übersicht 9
Hohe Affinität zu Online- und Print-Angebot
So weit zu den Reichweitenentwicklungen der Online-Angebote von Printmedien insgesamt.
Da zu diesen Internet-Angeboten in der ACTA auch die Reichweiten der entsprechenden Printmedien erfasst wurden, ist außerdem verfolgbar, ob und inwieweit sich Print- und Online-Nutzung der gleichen Medienmarke befruchten. Der
Zusammenhang, dass die Printnutzer unter den Onlinern auch hochgradig das
Internet-Angebot ihres Titels nutzen, wurde schon sehr frühzeitig sichtbar. Und
er ist nach wie vor sehr eng,
• wenn zum Beispiel Leser im Erscheinungsintervall des Wochenmagazins
Der Spiegel zu rund 15 Prozent auch zu den wöchentlichen Nutzern von Spiegel-Online zählen,
184
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
• die Nichtleser pro Nummer des Spiegel hingegen nur zu 2 Prozent.
• Für zwölf Titel ergibt sich hier im Durchschnitt, dass die Internet-Angebote
zehnmal so häufig von den Lesern pro Nummer wöchentlich genutzt werden
wie von den Nichtlesern pro Nummer.
Übersicht 10 zeigt, wie wenig sich an diesem Zusammenhang grundsätzlich
seit den ersten Messungen zu Online-Reichweiten verändert hat. Und ein klarer
Zusammenhang besteht auch noch – allerdings weniger eng –, wenn man ihn auf
die monatlichen oder weitesten Nutzerkreise der Online-Medien bezieht. Siehe
näheres dazu und zur besonderen Qualität der Onliner als Mediennutzungs-Zielgruppe Hansen, Jochen: Print Media Internet Portals: A Boon or Bust for Print
Media Consumption? In: Worldwide Readership Research Symposium. Venice
2001, Session papers, S. 377–391.
Übersicht 10
Vergrößerte Nutzerkreise
der Medienmarken und Crossmedia-Kombinationen
Je enger diese Korrelation, desto mehr begrenzt dies naturgemäß das Wachstum
des Nutzerkreises der Medienmarke. Dennoch lässt sich in der Regel von durch
das Internet deutlich erweiterten Nutzerkreisen ausgehen: Jeweils auf Leser pro
185
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Ausgabe des Printobjekts bezogen, nimmt der durch das Internet von der Marke
erreichte Verbraucherkreis zum Beispiel für die drei Magazine zum Zeitgeschehen Der Spiegel, Stern, FOCUS
• bei jeweils wenigstens wöchentlichen Internet-Kontakten zwischen 6 und
14 Prozent zu, trotz gleicher Zeitschriftengattung also nicht unbedingt im
gleichen Ausmaß.
• Geht man von zumindest monatlichen Internet-Kontakten aus, so erreichen
diese drei Mediamarken zwischen 19 und 35 Prozent mehr Nutzer als allein
durch ihre Printobjekte; der Nutzerkreis der Marke erhöht sich also beachtlich, aber auch hier keineswegs für jede Mediamarke im gleichen Grad.
Interessiert also allein der Kontakt zur Marke eines Printmediums, so ist dabei
jeder zu berücksichtigen, der entweder deren Print- oder das Online-Angebot
nutzt. Die Crossmedia-Kombinationen grenzen diese Nutzerkreise für die Mediaplanung ab, das heißt jeweils diejenigen, die Leser pro Ausgabe oder aber Nutzer
pro Woche des Online-Angebots sind. So kommt zum Beispiel
• die „Spiegel plus Crossmedia-Kombi“ 2002 auf eine gemeinsame Reichweite der Printausgabe des Spiegel (mit 11,4 Prozent) und von Spiegel-Online
(2,0 Prozent) von 12,5 Prozent (der Bevölkerung von 14 bis 64 Jahren),
gegenüber der reinen Printreichweite bedeutet dies eine Steigerung um 10
Prozent;
• die „Stern Crossmedia-Kombi“ erreicht mit Stern-Print (14,5 Prozent) und
Stern-Online (1,3 Prozent) zusammen 15,4 Prozent (gleich 6 Prozent Steigerung der Printreichweite).
Noch deutlichere Reichweitengewinne zeigen sich für speziellere Titel, etwa aus
dem Computersektor:
• für „Chip Crossmedia-Kombi“ ergibt sich aus 2,8 Prozent Print- und 1,6
Prozent Online-Reichweite eine von insgesamt 3,8 Prozent, das entspricht
einer Steigerung um 36 Prozent gegenüber der Printreichweite;
• und „PC Welt Crossmedia-Kombi“ erreicht aus 3,2 und 1,2 Prozent für Print
und Online zusammen insgesamt 4,0 Prozent (eine Steigerung der Printreichweite um 25 Prozent).
186
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Übersicht 11
Online- und Print-Nutzer lesen besonders regelmäßig
Logisch wäre es durchaus plausibel, wenn die Nutzer des Printtitels, die auch
seinen Online-Auftritt nutzen, weniger regelmäßig zur Zeitschrift greifen als
jene, die ausschließlich die Zeitschrift lesen. Dies trifft aber nicht zu, sondern
eindeutig das Gegenteil: Wer als Leser pro Ausgabe eines Zeitschriftentitels auch
das Online-Angebot des Titels mindestens monatlich nutzt, liest den Printtitel
regelmäßiger als die Leser pro Ausgabe unter den Onlinern, die seltener oder gar
keinen Kontakt zum Internet-Auftritt des Titels haben.
• Zum Beispiel lesen die Print- und Online-Nutzer des Spiegel zu 28 Prozent
dieses Magazin regelmäßig; wer als Onliner hingegen nur die Spiegel-Printausgabe nutzt, liest den Titel lediglich zu 17 Prozent regelmäßig; die entsprechende Relation für den Stern ist 25 zu 16 Prozent.
• Ähnliches zeigt sich auch beim (noch härteren) Stichtagskriterium „Gestern
in der Hand gehabt“: Zu 44 Prozent hatten die Print- und Online-Nutzer den
Spiegel am Vortag in der Hand, die ausschließlichen Print-Nutzer (unter den
Onlinern) nur zu 23 Prozent, 39 zu 27 Prozent betragen die entsprechenden
Relationen beim Stern.
187
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Übersicht 12
Hochkarätige Print- und Online-Nutzer
Die Leser mit Internet-Kontakt sind nach wie vor sehr hochklassige Nutzer des
Printmediums, die Internet-Inhalte allein können ihren Bedarf an Information
und Unterhaltung offensichtlich nicht ausreichend befriedigen. Und dies trifft
zu, obwohl sie auch das Internet weit überdurchschnittlich breit nutzen. Die
ACTA ermittelt zu fast drei Dutzend Inhalten und Nutzungszwecken im Internet
jeweils, ob man sie regelmäßig oder häufiger nutzt, ab und zu, nur ganz selten
oder nie. Davon nennen die Onliner
• durchschnittlich 3,64 Felder, die sie regelmäßig nutzen,
die Onliner, die auch Leser pro Nummer der Magazine zum Zeitgeschehen sind,
jedoch deutlich mehr:
• die Spiegel-Leser mit durchschnittlich 4,68 Feldern am ausgeprägtesten,
gegenüber 3,42 der Nicht-Spiegel-Leser,
• für FOCUS liegen die entsprechenden Werte bei 4,50 und 3,48,
• für Stern bei 4,39 und 3,50.
Dies gilt jedoch keineswegs für jeden Nutzungszweck. Wenn es beispielsweise
um das Chatten (Unterhaltung mit anderen Nutzern) geht oder um Kontakte, die
man knüpfen möchte, um das Fernsehprogramm oder Informationen über Kos188
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
metik, dann sind die Leser zumindest dieser Magazine nicht stärker als deren
Nichtleser vertreten.
Im Internet: Printnutzer nutzen weit überduchschnittlich Internet-Inhalte
Es nutzen regelmäßig oder
häufiger im InternetE-Mails
Online-, Homebanking
Informationen für Schule
Herunterladen von Software
Aktuelle Nachrichten zur Politik
Nachschlagewerke
Unterhaltung mit anderen Nutzern
Faxe verschicken und empfangen
Sportnachrichten
Produktinformationen
Börsenkurse
Wetterbericht, Reisewetter
Informationen über Reiseziele
Kontakte knüpfen
Nachrichten zu Computer-Themen
Brancheninformationen
Veranstaltungshinweise
Stellenanzeigen
Fahr- und Flugpläne
Aktuelle Wirtschaftsmeldungen
Informationen von Banken
Spiele gegen Computer
Zeitungs- und Zeitschriftenarchive
Angebote an PKW
Anlagetips
Aktien kaufen und verkaufen
Verkehrsinformationen
Fernsehprogramm
Versicherungsangebote
Gesundheitstips
Teilnahme an Diskussionsforen
Informationen über Kosmetik
Immobilienangebote
Informationen über Medikamente
Telefonieren über das Internet
Onliner
insgesamt
%
63
29
22
18
14
14
12
11
11
11
10
10
10
10
10
10
9
9
9
9
8
8
5
5
5
5
4
4
3
3
3
3
2
2
2
364
Der Spiegel
Nichtleser
Leser pro
pro
Nummer
Nummer
%
%
71
62
32
28
28
21
21
18
27
11
20
12
11
12
13
11
13
10
14
10
15
9
14
9
14
10
10
10
14
9
14
9
14
8
9
9
14
8
16
8
10
8
7
8
12
4
4
5
8
4
7
4
6
4
4
4
5
3
5
3
4
2
2
3
4
2
4
2
4
2
468
342
Focus
Nichtleser
Leser pro
pro
Nummer
Nummer
%
%
68
63
34
28
28
21
20
18
22
13
19
13
11
12
15
11
12
10
13
10
15
9
14
10
13
10
10
10
15
9
14
9
11
9
9
9
12
8
13
8
11
8
6
8
8
5
6
5
8
5
7
4
5
4
4
4
6
3
3
3
4
3
2
3
4
2
3
2
4
2
450
348
Stern
Nichtleser
Leser pro
pro
Nummer
Nummer
%
%
71
62
33
28
25
22
19
18
20
13
18
13
11
12
15
11
13
10
14
10
13
10
15
9
14
10
9
10
12
9
12
9
13
9
10
9
12
8
11
9
11
8
6
8
9
5
6
5
7
5
6
4
5
4
4
4
4
3
5
3
3
3
3
3
4
2
4
2
2
2
439
350
Basis: Internetnutzer in der Bevölkerung 14 bis 64 Jahre
Quelle: ACTA 2002
Übersicht 13
Tiefer Einblick durch single-source
Diese engen Zusammenhänge der Mediennutzung sind deshalb besonders valide,
weil hier sämtliche Daten von denselben Personen stammen, sie nach dem Single-Source-Prinzip erhoben wurden (was der jahrzehntelangen Allensbach-Philosophie in der Medienforschung entspricht). Das Single-Source-Prinzip setzt
natürlich stets Grenzen, wenn man neue, ergänzende Merkmale der Mediennutzung überprüfen will – ohne die Erhebungsdauer eines Interviews auszudehnen. Umso wichtiger ist es, auch alle Erkenntnisse aus vergleichbaren
deutschen und internationalen Studien zu nutzen; sollten sie Schwachpunkte
der hier beschriebenen Ansätze experimentell nachweisen, würde dies auch zu
veränderten Ansätzen beitragen – und damit zum Fortschritt der Reichweitenforschung.
189
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Online-Nutzung auf Kosten von Print?
Zurück zu den Medienmarken: Mögen sich die Internet-Portale für viele Medien
auch wirtschaftlich noch nicht rechnen: Die Nutzerkreise der einzelnen Mediamarken haben sich durch ihre Internet-Auftritte beachtlich vergrößert, und
zwar ohne dass dies die Reichweite der Printmedien insgesamt beeinträchtigte
(Übersicht 15). Teilweise stiegen die Reichweiten parallel zur zunehmenden
Internet-Verbreitung sogar noch beachtlich – wie etwa bei den wöchentlichen
Magazinen zum Zeitgeschehen (Übersicht 14).
Übersicht 14
Übersicht 15
190
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Onliner mögen Mediamarken – und sind Meinungsführer
Dass Medien als Print- und Online-Anbieter kraftvoll als Marke auftreten,
kommt den Onlinern besonders entgegen:
• In einer Phase, in der man sich generell nicht mehr so wie früher mit Markenartikeln identifiziert (1995 fanden 43 Prozent der Bevölkerung, dass sich
ihr Kauf lohne, 2003 nur noch 33 Prozent),
• gehören Onliner noch immer zu den überdurchschnittlich starken Anhängern.
37 Prozent gegenüber 31 Prozent unter den Nicht-Onlinern finden 2003 Markenartikel lohnend (Quelle: AWA).
Und dies gilt nicht nur generell, sondern gerade auch bezogen auf Medien: So
stuften die Onliner
• die Marke FOCUS zu 45 Prozent als sympathisch ein, die Nichtnutzer des
Internet lediglich zu 31 Prozent, den Spiegel im Verhältnis 41 zu 26 Prozent
und Stern im Verhältnis 40 zu 31 Prozent;
oder:
• als unverwechselbar, einzigartig empfinden die Onliner den Spiegel zu 49
Prozent, die Nicht-Onliner nur zu 37 Prozent, den Stern zu 39 und 33 Prozent, FOCUS zu 40 und 31 Prozent. Und dies gilt keineswegs nur für die
wöchentlichen Magazine, sondern ähnlich deutlich auch für die Titel aus
ganz anderen Zeitschriftengattungen (z.B. Men’s Health, Playboy, Geo, TVSpielfilm).
Übersicht 16
191
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Internet-Nutzer sind also auch ein besonders empfängliches Publikum zur Pflege
von Marken im Medienbereich – und nicht zuletzt auch dadurch sehr fruchtbar,
weil sie weit überdurchschnittlich Einfluss auf andere, ihr soziales Umfeld
nehmen: 36 Prozent von ihnen gehören zu den Meinungsführern (opinion leader)
– gegenüber 23 Prozent der Nicht-Onliner (Quelle: AWA 2003).
Jochen Hansen wurde 1943 geboren. Er studierte Wirtschafts- und Sozialwissenschaften
(Diplom-Sozialwirt) und ist leitender wissenschaftlicher Mitarbeiter beim Institut für Demoskopie Allensbach, dort seit 1966 tätig. Bücher,
Aufsätze, Lehraufträge zu Methoden der empirischen Markt-, Medien- und Sozialforschung,
speziell zur Forschung mit persönlich befragten
Panels. Zur Bedeutung des Internet für Medien
jüngste Veröffentlichung zusammen mit Johannes Schneller: „Media Brands: How Much Stronger Thanks to Their Internet Presence?“ auf dem
Worldwide Readership Symposium 2003 (Cambridge, Massachusetts, USA).
Johannes Schneller wurde 1957 geboren. Er
studierte Forstwissenschaft und Romanistik in
Freiburg und war von 1983 bis 1987 Wissenschaftlicher Assistent am Institut für Arbeitswissenschaft an der Universität Freiburg. 1987
Promotion zum Dr. rer. nat., 1989/1990 Staatsexamen. Seit 1990 ist er wissenschaftlicher Mitarbeiter im Institut für Demoskopie Allensbach.
Zunächst Leiter der Statistischen Abteilung und
der Auswertungsabteilung. Seit 1993 Leitung der
Mediaforschung: verantwortlich unter anderem für
die Allensbacher Markt- und Werbeträgeranalyse
(AWA) und die Allensbacher Computer- und Technik-Analyse (ACTA). Hinzu kommen Projekte der
Markenforschung, z.B. zu den Images von Produktmarken, Medienmarken und Sponsoringpartnern. Forschungsschwerpunkte: qualitative und
quantitative Medienforschung (Printmedien, TV,
Outdoor-Medien, Internet); Methodenfragen der
Medienforschung; Mediennutzung in der jungen
Generation; Nutzung der neuen Medien und Wechselwirkung mit der Nutzung etablierter Medien.
192
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Ist die Ökonometrie am Ende?
Von Wolfgang J. Koschnick
Es ist noch gar nicht lange her, da gab es praktisch eine einzige Vorstellung
darüber, wie Werbung und Massenmedien wirken, nämlich von oben nach unten.
Man gibt oben die Werbung ein und unten, bei den blöden Konsumenten, kommt
die Wirkung heraus. Bis tief in die sechziger Jahre und sogar noch darüber hinaus
hielt sich der Mythos von der Omnipotenz von Werbung und Massenmedien. Er
unterstellt, wohl durchdachte und wohl dosierte Stimuli in den Massenmedien
könnten jedermann auf die gleiche Weise erreichen und beeinflussen. Folglich
könnte allein der Inhalt der Kommunikation bei allen Menschen der Gesellschaft
grundsätzlich gleich laufende Reaktionen auslösen.
Die Massenmedien sind danach reine ,,Transmissionsriemen“. Deshalb nannte
man die Modelle auch ,,transmission belt theory“ oder ,,hypodermic needle
model“, weil der Kommunikations-Stimulus einer Injektion vergleichbar ist, die
dem wehrlosen Empfänger unvermittelt ,,unter die Haut“ geht. Die Konsumenten stellen eine weitgehend homogene Masse dar, die den ,,allmächtigen“ Massenmedien und der Werbung hilflos ausgeliefert ist. Mit ihren Stimuli zielen
diese auf die einzelnen – sozial weitgehend isolierten – Verbraucher, um sie zu
bestimmten Kaufhandlungen zu veranlassen. Dieses ,,Modell der Massenkommunikation“ ist heute längst widerlegt, wiewohl seine Beliebtheit als Thema der
Kulturkritik nach wie vor ungebrochen ist.
Die Aussagen der frühen Werbewirkungsforschung waren linear: Eine Werbebotschaft A in Werbeträger B hat beim Publikum C die Wirkung D. Die Aussagen
der modernen Kommunikationstheorie sind ungemein differenzierter: Wenn ein
Stimulus der Überredungskommunikation – Aussage, Kommunikator, Medium
und Institution der Massenkommunikation – bestimmte Merkmale K1, K2,... Kn
aufweist und von einem Rezipienten mit den Merkmalen R1, R2,... Rn in einer
Situation S1, S2,... Sn empfangen wird, dann ist mit einer bestimmten Wahrscheinlichkeit W1, W2,... Wn die Wirkung E1, E2,... En auf die Einstellungen des Rezipienten zu erwarten.
Diesen entscheidenden Fortschritt verdankt die moderne Werbeforschung vor
allem der ökonometrischen Marketing- und Mediaforschung. Praktisch alle
Modelle der neueren Werbeforschung sind ökonometrische Modelle. Wer die
Stärken und Schwächen der zeitgenössischen Werbewirkungsforschung erkennen will, muss die Grenzen und Möglichkeiten der Ökonometrie kennen.
Die Ökonometrie ist ein Bereich der Volkswirtschaftslehre, der sich 1930 als
eigenständiger Wissenschaftszweig konstituierte. Der Begriff ist eine Wortbil193
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
dung aus Ökonomie und Metrie (metron bedeutet Griechisch ,,Maß“ oder ,,Messung“). Die Ökonometrie vereint die speziellen Fähigkeiten von Ökonomen,
Statistikern und Mathematikern, um die Entwicklung empirisch gestützter
ökonomischer Theorien voranzutreiben. Von ökonomischer Seite kommen
die Hypothesen über den Zusammenhang zwischen bestimmten wirtschaftlichen Größen; die Statistiker stellen zu diesen Größen gesammelte Daten zur
Verfügung; die Mathematiker bilden durch mathematische Verfahren die Verbindung zwischen beiden. Das Ziel der Ökonometrie ist doppelter Art:
(1) Hypothesenschätzung: Ökonomische Hypothesen, die lediglich in Form
einer allgemeinen Funktion vorgegeben sind, sollen numerisch bestimmt
werden.
(2) Hypothesentest: Der Wahrheitsgehalt dieser Hypothese soll überprüft
werden. Unter theoretischem Aspekt ist der Hypothesentest von größerer
Bedeutung, da er über Annahme oder Ablehnung der Hypothese entscheidet.
Aus wirtschaftspolitischen Erwägungen ist die Hypothesenschätzung bedeutsam, da sie die Grundlage für numerisch spezifizierte Simulationen oder Prognosen bildet; dies setzt die Annahme der Hypothese voraus.
Das Prinzip der ökonometrischen Marketingforschung besteht darin, einen
Datenbestand über Marketingaktivitäten und die daraus resultierenden
Marktanteilsveränderungen aller in Konkurrenzbeziehung stehenden Marken
eines Produktfelds aufzubauen. Aus einem solchen Datenbestand über eine
Vielzahl von Marketingaktivitäten lassen sich sodann mithilfe der multiplen
Regressionsanalyse für jede Einzelaktivität Einflussgewichte errechnen. Einfach
ausgedrückt: Man sammelt einen Bestand von Daten über komplexe Vorgänge
wie zum Beispiel eine Vielzahl von Werbekampagnen. Dann rechnet man – mithilfe der Regressionsanalyse – aus, wie die einzelnen Faktoren in dieser Vielzahl
von Kampagnen untereinander zusammenhängen.
Von der Seite der Ökonomie kommen die Hypothesen über den Zusammenhang
zwischen bestimmten wirtschaftlichen Größen. Die Statistiker stellen zu diesen
Größen gesammelte Daten zur Verfügung. Und die Mathematiker verbinden
beide durch mathematische Verfahren miteinander.
Dabei ergeben sich allerdings zwei grundsätzliche Probleme, die ganz entscheidend auch den Wert der moderneren Werbeforschung betreffen:
• Das erste Problem: Eine ökonometrische Analyse kann keinen Kausalbeweis
liefern. Sie kann aber auch einen kausalen Zusammenhang nicht immer
ausschließen. Kausale Zusammenhänge müssen anders als durch ökonometrische
Analyse nachgewiesen werden.
194
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Das muss man sich schon einmal genüsslich auf der Zunge zergehen lassen.
Die ökonometrische Werbewirkungsforschung macht also Wirkungsforschung.
Sie erforscht Wirkungen. Sie erforscht genauer: Die Ursachen von Wirkungen.
Aber sie verwendet dabei Methoden, mit deren Hilfe sie den Zusammenhang
von Ursachen und Wirkungen gar nicht erforschen kann. Sie sagt mit anderen
Worten: Diese Wirkung könnte jene Ursache haben. Aber sie könnte auch eine
ganz andere Ursache haben. Welche Ursache sie hat, kann man nicht wissen. Und
schon gar nicht mithilfe der Methoden der Ökonometrie. Die ökonometrische
Werbe- und Mediaforschung produziert also a priori Nonsense. Man darf das
ruhig übersetzen: Sie produziert Unsinn.
• Das zweite Problem: Ökonometrische Untersuchungen stützen sich immer nur
auf das vorhandene Datenmaterial. Wenn das fehlerhaft oder lückenhaft ist, sind
die Befunde der Analyse es auch. Wenn eine ökonometrische Analyse von beispielsweise 20 oder 70 Werbekampagnen bestimmte Regelmäßigkeiten aufzeigt,
so gelten diese Regelmäßigkeiten für genau diese 20 oder 70 Werbekampagnen.
Welche Zusammenhänge in der 21. oder 71. Werbekampagne bestehen, lässt sich
daraus nicht ableiten.
Deshalb liegen zu ein und derselben Hypothese oft mehrere und oft genug auch
widersprüchliche ökonometrische Ergebnisse vor. Es kommt halt, wie es kommt.
Mal so, mal so. Die Folge: Schätzung und Beurteilung von Hypothesen unterliegen einem ständigen Wandel.
Günstigenfalls können Hypothesen mit zeitlich beschränkter Gültigkeit bestätigt
werden. Entscheidend ist: Die Ökonometrie liefert niemals allgemein gültige
Gesetze. Im allerbesten Fall liefert sie Quasi-Gesetze. Meistens liefert sie noch
nicht einmal das, sondern stiftet lediglich Verwirrung.
Am Anfang aller ökonometrischen Studien steht das 1954 von J. M. Koyck
entwickelte Modell der Wirkungsverzögerung beim Einsatz absatzpolitischer
Instrumente, dem die Annahme zu Grunde liegt, die Wirkung sinke im Zeitverlauf geometrisch ab. Das Modell wurde 1954 von J. M. Koyck in seinem Aufsatz
,,Distributed Lags and Investment Analysis“ entwickelt.
Fast alle empirischen Ansätze der Werbeforschung beziehen sich heute auf
diesen Ansatz. Ausgangspunkt ist die Annahme, dass auch weit zurückliegende
Werbeaufwendungen stets am Zustandekommen des gegenwärtigen Umsatzes
mitbeteiligt sind. Zu erwarten ist, dass der Einfluss des aktuellen Werbeeinsatzes am größten ist, während die Einflussgewichte der weiter zurückliegenden
Werbeeinsätze laufend abnehmen.
195
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Weiterentwickelt wurde das Koyck-Modell dann 1957 von M. L. Vidale und
H. B. Wolfe in ihrem Ansatz der Marketing- und Werbebudgetierung unter
Berücksichtigung von Carry-over-Effekten beim Einsatz des Marketinginstruments Werbung. Es handelt sich um ein dynamisches mathematisches Modell,
das auf der Grundlage von empirischen Beobachtungen und Experimenten mit
dem Ziel der Formulierung von Aussagen über die optimale Budgethöhe und
die Beziehung zwischen Werbeausgaben und Umsatzentwicklung entwickelt
wurde.
Die deutsche Forschung griff diese Ansätze mit der wegweisenden Grundlagenstudie ,,Werbedosis – Werbewirkung. Untersuchung der Response-Funktionen
von Anzeigen-Kampagnen“ des Axel Springer Verlags aus dem Jahre 1971 sowie
dem ergänzenden ,,Atlas der Response-Funktionen“ aus demselben Jahr auf.
Vertieft und erweitert wurden die daraus gewonnenen Erkenntnisse in den vier
Studien der Reihe ,,Markt-Mechanik“, die zwischen 1974 und 1981 erschienen.
Sie untersuchten den Zusammenhang zwischen Marktanteil, Änderungen im
Distributionsmix, Werbeanteil und Mediamix.
Um die Prinzipien und die Probleme der ökonometrischen Werbeforschung zu
beleuchten, kann die Werbewert-Studie des Verbands Deutscher Zeitschriften
(VDZ) von 1995 dienen. Die Werbewert-Formel versucht, den Einfluss verschiedener Variablen auf den Werbeerfolg herauszuarbeiten, und steht in der langen
Tradition ökonometrischer Werbewirkungsstudien. Sie untersucht den Zusammenhang zwischen Marktanteil, Änderungen im Distributionsmix, Werbeanteil
und Mediamix.
Wie alle anderen Studien auch beruht der Werbewert auf der grundsätzlichen
Überlegung, dass der Marktanteil der aktuellen Zeitperiode durch den Marktanteil der Vorperiode, die Distributionsänderung, den Werbeanteil und den Mediamix bestimmt wird. Dabei wurde der Marktanteil der Vorperiode seinerseits
bereits durch Distributionsänderungen und Werbeinvestitionen beeinflusst.
Im Rahmen der Studie wurden zunächst 195 Kampagnen aus 81 Produktbereichen von alkoholfreiem Bier bis Zwieback über einen Zeitraum von 18 Doppelmonaten zwischen Mitte 1991 und Ende 1994 und dann noch einmal für 147
Marken aus 69 Produktbereichen untersucht. Dafür wurden die Werte für alle
Doppelmonate zwischen Anfang 1991 und 1996 herangezogen.
Einbezogen wurden nur marketingübliche direkte Werbeaufwands- und Werbewirkungskriterien wie die von der Nielsen S + P Werbeforschung gemessenen
Werbeausgaben und Medienbelegungen sowie die vom Nielsen Handelspanel
ermittelten Informationen über Marktanteile und Distributionsänderungen je
Marke: Werbedosis ist der aktuelle Werbeaufwand, der Werbeerfolg ist die aktuelle Marktanteilsbewegung.
196
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Zur Ermittlung von Abhängigkeiten wurden diese Daten dann einer
ökonometrischen Analyse unterzogen. Durch nonlineare multiple Regressionsanalyse wurden verrechnet: die Marktanteile pro Doppelmonat bzw. die
Veränderungen je Marke nach Wert, die Werbeausgaben für Print und TV, jeweils
als Anteil der Marke an den Gesamtwerbeaufwendungen pro Produktgruppe
(Share of Advertising = SOA), und die umsatzgewichtete Distribution.
Herausgekommen ist bei der mathematisch-statistischen Veranstaltung eine
Formel. Sie ist einigermaßen komplex, so dass jedem Laien entweder die Haare
zu Berge oder der Angstschweiß auf der Stirn stehen. Deshalb spare ich es mir,
sie überhaupt zu zitieren.
In einfachen Worten ausgedrückt, besagt die Werbewert-Formel: Der Marktanteil
in der aktuellen Periode beruht zu einem großen Teil auf dem Marktanteil der
Vorperiode. Nachdem der Herr Koyck diese „Gesetzmäßigkeit“ schon vor einem
halben Jahrhundert „nachgewiesen“ hatte, könnte man eigentlich aufhören, sie
Jahr für Jahr noch einmal nachzuweisen.
Am Ende der aktuellen Periode werden noch 98 Prozent des vorherigen Marktanteils gehalten, wenn keine Werbung erfolgt. Allerdings geht der Einfluss des Vorperioden-Marktanteils mit steigender Marktanteilsgröße immer stärker zurück.
Die Variable Distribution macht sich nur im Fall von Distributionsänderungen
direkt proportional bemerkbar. Bei unveränderter Distribution hat sie den Wert
eins und folglich keinen Einfluss. Der Einfluss der Werbeinvestitionen stellt sich
als Summe der Werbeanteile der einzelnen Mediengattungen dar. Sie tragen mit
15 bis 19 Prozent des Werbeanteils zur Marktanteilsveränderung bei.
Und die große Frage ist nun: Was hat das zu sagen? Die Antwort fällt leicht: Es
hat gar nichts zu sagen. Es bedeutet nichts. Gar nichts.
Eine ökonometrische Formel ist nicht das, was eine mathematische Formel
besagt. Sie ist etwas grundsätzlich Anderes. Sie besagt nämlich, dass sie nichts
besagt.
Was macht eine mathematische Formel aus? Das Wichtigste daran ist: Sie gilt.
Sie gilt immer. Sie ändert sich nicht. 4 + 3 = 7. Das gilt immer. Egal ob es
regnet oder schneit. Wenn man zu vier Äpfeln drei weitere hinzutut, ergibt das
immer sieben Äpfel. Das trifft auch für Birnen, Pflaumen und Pfirsiche zu. Man
kann sogar Birnen und Äpfel miteinander verknüpfen, obwohl es doch immer
wieder heißt, man solle die Finger davon lassen. Vier Äpfel plus drei Birnen sind
immer noch sieben Früchte. Man kann sich absolut darauf verlassen, dass 4 plus
3 immer 7 ergibt.
197
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Bei einer ökonometrischen Formel ist das nicht der Fall. Die gilt stets nur im Einzelfall. In dieser konkreten Untersuchung hat sich ergeben, dass 4 plus 3 gleich
7 ist. Wenn wir Glück haben, gilt das auch in der nächsten Untersuchung. Wenn
wir Pech haben, gilt das aber nicht. Aber wann wir Glück und wann wir Pech
haben, lässt sich mithilfe der Ökonometrie nicht näher festlegen.
Wenn man für 17 Kampagnen untersucht hat, dass die Zusammenhänge so und
so sind, dann kann man daraus nicht etwa die Schlussfolgerung ableiten, dass die
Verhältnisse bei der 18. Kampagne genauso so sind. Das kann zwar sein. Es kann
aber auch anders sein. Nix Genaues weiß man nich.
Wie die Verhältnisse genau sind, lässt sich mithilfe der ökonometrischen Analyse nicht ermitteln. Das müsste man noch einmal neu untersuchen. Aber eigentlich man will ja gerade mit der Formel herausfinden, wie die Zusammenhänge
bei allen Kampagnen sind. Doch genau das geht nicht. Ökonometrische Erkenntnisse haben den Charakter von nichts sagenden Aussagen: „Wenn der Hahn kräht
auf dem Mist, dann regnet es oder das Wetter bleibt, wie es ist.“
Aber wenigstens für die 17 untersuchten Kampagnen trifft die Formel doch zu,
oder? Pustekuchen. Überhaupt nicht. Auch davon kann keine Rede sein. Für alle
Einzelfaktoren der Formel werden Durchschnitte aus den 17 Kampagnen gebildet. So setzt sich die Formel zusammen: aus den Durchschnittswerten für alle 17
Kampagnen.
Ergeben sich also für die einzelnen Faktoren teils extrem niedrige, teils extrem
hohe und teils irgendwie dazwischen liegende Werte, so ist der Durchschnitt
lediglich ein Mittelwert, der in der wirklichen Wirklichkeit überhaupt nicht vorkommt. Und der Durchschnittswert ist ein arithmetisches Mittel, das nur sehr
selten etwas Vernünftiges aussagt: Wenn von zwei Leuten einer eine ganze Flasche Wodka austrinkt und der andere abstinent bleibt, dann haben beide im
Durchschnitt eine halbe Flasche ausgetrunken. Sie sind also im Durchschnitt
gleich betrunken. Aber wenn ich das realitätsnah betrachte, ist der Erste sturzbetrunken und der Zweite stocknüchtern.
Sie sagen, das sei an den Haaren herbeigezogen? Recht haben Sie. Das ist
genauso an den Haaren herbeigezogen wie die ökonometrischen Durchschnittswerte.
Aber egal, sagt sich der Optimist. Wenigstens hat man mit der Ökonometrie
eine Faustformel, die man auf künftige Kampagnen anwenden kann. Wenn etwas
einmal funktioniert hat, warum soll es dann beim nächsten Mal nicht wieder
funktionieren? Schön wäre es.
198
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Das Vertrackte an Prognosen – hat Willy Brandt einmal gesagt – ist, dass sie sich
auf die Zukunft beziehen. Und was die Zukunft bringt, kann man vorher nicht
wissen.
Wir haben es nun einmal mit menschlichem Verhalten in komplexen sozialen
Systemen zu tun. Das unterliegt ständigem Wandel. Da gibt es Ermüdungs- und
Sättigungserscheinungen. Und man weiß nie, ob die Leute beim nächsten Mal
noch genau so reagieren wie beim letzten Mal. Wenn sie es nicht tun, ist die
ganze schöne Formel für die Katz. Die Formel gilt immer, wenn alles beim
nächsten Mal genauso ist wie vorher. Wenn sich aber die Struktur von etwas
ändert, dann gilt sie eben nicht.
Manchmal habe ich das Gefühl, dass die ganze regressionsanalytische Rechnerei vor allem dazu da ist, lebens- und realitätsfremde Daten zum Jonglieren zu
liefern, damit die Markt- und Mediaforscher etwas zum Spielen haben. Auf die
fundamentale Frage, wie das in der Werbung geht, liefert die ökonometrische
Forschung nicht viel mehr als die flapsige Antwort: „Gestern ging‘s noch.“
98 Prozent des bestehenden Marktanteils innerhalb eines Doppelmonats können
laut Werbewert gehalten werden, wenn keine Werbung stattfindet. Ich stelle mir
gerade vor, man hätte diesen Ansatz verwendet, um den hohen Alkoholkonsum
in der ehemaligen Sowjetunion zu erklären. Alle zwei Monate geht der Konsum
ohne Werbung zurück. 70 Jahre lang – das sind 420 Doppelmonate – ohne Werbung für Alkohol: Mein Gott, müssen die Russen vor der Glorreichen Oktoberrevolution gesoffen haben.
So kommen denn auch in ökonometrischen Studien stets Ergebnisse zutage, die
man ohne Zögern als Binsenweisheiten abtun kann. Aus der Werbewert-Studie
leitete der Zeitschriftenverlegerverband die folgenden ,,Erkenntnisse“ ab:
1. Werbung wirkt. Klassische Werbung leistet einen unverzichtbaren Beitrag zum Markterfolg. Werbeverzicht bedeutet daher umgekehrt Marktanteilsverlust. Ohne Werbung sanken die Marktanteile um durchschnittlich 2
Prozent pro Doppelmonat. Der Schwund von 2 Prozent muss durch Werbung oder Distribution ausgeglichen werden, wenn der Marktanteil gehalten
werden soll.
Das muss man sich einmal vor Augen führen. Am Ende des zweiten Jahrtausends sagt eine wissenschaftliche Untersuchung: Werbung ist nicht ganz und
gar überflüssig.
199
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
2. Hohe Marktanteile erfordern allein zu ihrer Stabilisierung
überproportional hohe Werbeanteile. Deshalb benötigen große Marken
überproportional große Werbeetats und einen überproportional höheren Werbedruck als kleine Marken, wenn sie ihre Marktanteile stabilisieren und ausweiten wollen.
Da trifft es sich, dass große Marken in der Regel auch mit großen Etats ausgestattet sind. Auch dies ist also eine Erkenntnis der Kategorie ,,Binse“. Alles in
allem gelang also der ,,Nachweis“, dass man mit viel Geld mehr erreicht als
mit wenig Geld oder ganz ohne. Die Wissenschaft ist einfach eine fabelhafte
Angelegenheit.
3. Distributionsveränderungen wirken sich direkt auf den Marktanteil
aus. Das klingt zunächst beeindruckend. Doch was bedeutet es? Es bedeutet: Je besser der Vertrieb eines Produkts organisiert ist, desto höher wird
sein Marktanteil. Mit anderen Worten: Wenn der Vertrieb einer Marke so
schlecht organisiert ist, dass man sie nirgendwo kaufen kann, dann hat sie
auch keinen Marktanteil. Wenn sich das bessert, wird der Marktanteil höher.
Ja, was sonst?
4. Der Einfluss der Konkurrenzwerbung ist unbedingt bei der Werbebudgetierung zu berücksichtigen. Zu geringe Werbeinvestitionen, aber
auch Werbepausen führen zu Marktanteilsverlusten. Werbekontinuität zahlt
sich aus. Der positive Zusammenhang zwischen Werbedruck und Marktanteil
ist jedoch nicht linear, das heißt, je höher die Ausgaben stiegen, desto geringer wurden die Zuwächse. Mit steigenden Werbeaufwendungen in Print und
TV wächst deren marktanteilsbewegende Wirkung unterproportional.
5. Mediamix-Kampagnen sind gegenüber Mono-Kampagnen um 15
bis 20 Prozent effizienter. Auch das ist erfreulich zu hören. Allein: Die
Überlegenheit von Mix-Strategien wurde schon in grauer Vorzeit wesentlich
detaillierter nachgewiesen.
Die Werbewert-Formel ist so ausgelegt, dass damit 98,3 Prozent des Marktgeschehens erklärt werden können, und zwar zu 93,3 Prozent durch die Marktanteile im vorangegangenen Doppelmonat und die Distributionsveränderungen
und zu 5 Prozent durch den Werbeeinsatz im aktuellen Doppelmonat. Nur 1,7
Prozent des Marktgeschehens können nicht durch die Werbewert-Formel erklärt
werden.
Das ist jedoch alles andere als ermutigend. Es bedeutet nämlich, dass die Werbewert-Formel nur 5 Prozent der Marktveränderungen durch Werbung erklären
kann. Logische Konsequenz: Werbung wirkt danach nur ganz wenig – so wenig,
200
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
dass man sich fragen müsste, ob man das schöne Geld nicht für etwas anderes
ausgeben sollte, wenn man sich darauf verlassen könnte, dass die Formel
stimmt.
Tatsächlich liegt jedoch der Verdacht nahe, dass ökonometrische Verfahren der
Werbeerfolgsmessung so gut wie überhaupt nicht in der Lage sind, den komplexen
Kommunikationsprozess der Werbung angemessen abzubilden. Ökonometrische
Modelle berücksichtigen in der Regel nur den Anfang (die Werbemaßnahme)
und das Ende (den ökonomischen Erfolg) des Kommunikationsprozesses und
klammern den wichtigsten Faktor dazwischen aus: den Rezipienten, auf den
Werbung zunächst einmal im psychologischen Sinne wirkt und bei dem Wahrnehmungs-, Verarbeitungs- und Entscheidungsprozesse stattfinden, bevor ein
Kaufakt erfolgt.
Die Formel basiert auf Durchschnittswerten über 81 Produktgruppen. Ihr Einsatz
in der Alltagspraxis dürfte deshalb schwierig sein; denn es stellt sich die Frage,
ob sie für alle Produktgruppen gleichermaßen gilt oder ob kategorienspezifische
Anpassungen notwendig sind. Kann also die Formel für Hundefutter in gleicher
Weise gelten wie für Videorecorder und WC-Reiniger?
Für Marktanteile, Etats, Printanteile und Produktinteresse wird zwar danach differenziert, ob die jeweiligen Produktwerte über oder unter den Durchschnittswerten liegen. Aber reicht diese Differenzierung aus? Wie steht es mit Elementen
wie dem Produkt-Image oder der Produkt-Ausstattung? Und schließlich bleibt
der Wirkungsbeitrag der Verkaufsförderung vollends unberücksichtigt.
Natürlich haben ökonometrische Studien einen unglaublichen Vorteil. Es kommt
immer etwas dabei heraus. Und das, was dabei herauskommt, ist meistens eine
Formel – ein mathematisches Dokument. Das Ganze sieht immer wissenschaftlich aus. Und da die meisten Leute Angst vor Formeln haben und sich selbst auch
meist für doofer halten, als sie sind, schlucken sie die Formeln, als ob sie wahr
wären.
Bei den Verfahren der Regressionsrechnung kommt noch hinzu: Die Formeln
untersuchen ja stets die Interaktion zwischen zwei, drei, vier oder fünf Faktoren,
von denen man schon vorher weiß oder begründet vermutet, dass sie einen Einfluss auf die Werbewirkung haben.
Das ist sehr praktisch. Besonders für Verlage und andere Medienunternehmen.
Will ein Verlag herausfinden, ob ein beliebiger Faktor einen Einfluss auf die
Anzeigenwirkung hat, dann untersucht er das regressionsanalytisch. Und heraus
kommt: Jawoll. Dieser Faktor hat einen Einfluss auf die Wirkung von Anzeigen.
Braucht er Angaben darüber, ob ein anderer Faktor die Werbewirkung beein201
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
flusst, untersucht er das regressionsanalytisch. Und heraus kommt: Jawoll, meine
Herren. Das hat einen Einfluss auf die Werbung. Egal was man auch untersucht.
Immer kommt etwas dabei heraus.
Das ist ja das Schöne an der Ökonometrie. Wenn man sie einsetzt, um etwas
nachzuweisen, geht das reibungslos. Egal was. Und weil das so ist, ist es auch
völlig egal, was dabei herauskommt. Ökonometrischen Befunden haftet eine
ziemlich unziemliche Beliebigkeit an. Deshalb sind sie so beliebt.
In der heutigen Werbewirkungsforschung spielen vor allem vier Denkmodelle
eine Rolle, von denen praktisch alle in der Tradition der ökonometrischen Mediaforschung stehen. Das sind:
(1) Die Short-Term-Advertising-Strength-Formel oder auch STAS-Formel des aus Wales stammenden Professors John Philip Jones von der Syracuse University in New York.
(2) Das Advertising-Response-Modell (ARM), das die Nürnberger Gesellschaft für Konsumforschung (GfK) ebenfalls im Auftrag des Gesamtverbands
Werbeagenturen (GWA) entwickelt hat und das unmittelbar an die STASFormel anknüpft.
(3) Die Werbewert-Formel des Verbands Deutscher Zeitschriften (VDZ),
die der deutsche Mediaforscher Peter Beike entwickelt hat.
(4) Der Werbewirkungskompass, den die deutsche Mediaforscherin Erna
Engelsing für IP Deutschland zusammengestellt hat.
Die STAS-Formel: Der große Etikettenschwindel
Keine einzige Studie hat in den letzten Jahren so viel Aufsehen erregt wie jene,
die zur STAS-Formel des Professors John Philip Jones führte. Es war die Rede
von einer neuen Währung in der Werbeforschung.
Immer wieder streiten Werbepraktiker darüber, ob klassische Werbung oder
Verkaufsförderung sinnvoller ist. Der allgemeine Konsens lautet: Klassische Werbung wirkt langfristig und dauert. Verkaufsförderung dagegen wirkt sofort und
fördert rasch den Absatz. Unter dem Einfluss dieses Paradigmas sind vor allem
in den USA, aber auch in Europa erhebliche Geldsummen von der klassischen
Werbung in die Verkaufsförderung umdirigiert worden. In Amerika gehen rund
60 Prozent der Kommunikationsinvestitionen in Below-the-line-Maßnahmen.
202
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Diese Denkweise führt zu einem fundamentalen, ja peinlichen Denkfehler im
Forschungsansatz. Denn bei der vergleichenden Untersuchung der Wirkung von
Verkaufsförderung und klassischer Werbung wird vieles, was klassische Werbung
leistet, von vornherein gar nicht untersucht: der Aufbau des dauerhaften Markenwerts, die langfristige Hege und Pflege eines Marken- oder eines Firmenimage.
Gemessen wird, ob Werbung Verkäufe genauso fördert wie Verkaufsförderung.
Das ist ein absolut unseriöses Vorgehen: Man misst einen ganz kleinen Ausschnitt aus der Gesamtheit der Werbewirkungen, und man misst alles, aber auch
alles, was Verkaufsförderung nun einmal bewirken kann. Und siehe da: Die
Verkaufsförderung schneidet im Vergleich zur klassischen Werbung ziemlich gut
ab. Wer sich darüber wundert, hat noch nicht einmal kapiert, was jeder Depp
wissen sollte: Verkaufsförderung ist Verkaufsförderung, und Werbung ist Werbung. Der Vergleich zwischen den verkaufsfördernden Wirkungen von Werbung
und von Verkaufsförderung ist so geistreich wie der Vergleich der Flugeigenschaften eines Fahrrads und eines Flugzeugs. Nur würde sich unter Ingenieuren
niemand wundern, wenn man ihnen mitteilt, dass Fahrräder auf schmalen Wegen
besser fahren, dafür aber nicht so gut in der Luft liegen.
Viel dramatischer ist aber noch die Kurzatmigkeit des Denkansatzes. Dem erfolgreichen Aufbau ihres Image kann es eine Marke verdanken, dass sie zehn, 20
oder noch mehr Jahre länger lebt und fröhliche Verkäufe erzielt. Jeder Akt der
Verkaufsförderung ist ja überhaupt nur auf kurzfristige Wirkung angelegt und
kann über den Tag kaum Wirkungen auslösen.
Die Studien von John Philip Jones erregten 1994 besonderes Aufsehen. Jones
gelangte zu der Schlussfolgerung: Klassische Werbung wirkt genauso kurzfristig wie Verkaufsförderung. Der Tenor war klar: Die Gelder müssen wieder in
Richtung klassische Werbung umgelenkt werden.
Wie die STAS-Formel funktioniert
Um die kurzfristige Umsatzwirkung der klassischen Werbung zu messen,
führte Jones das neue Messinstrument STAS ein. Die Abkürzung STAS steht
für Short-Term Advertising Strength – kurzfristige Werbestärke.
• Baseline STAS: Zunächst wird innerhalb eines Zeitraums von sieben
Tagen erfasst, wie Verbraucher einkaufen, die eine Fernsehwerbung für ein
bestimmtes Produkt nicht gesehen haben. Der so ermittelte Wert heißt Baseline STAS. Er bezeichnet gewissermaßen die Ausgangs-Werbestärke. Die
Bezeichnung ist irreführend. Denn Baseline STAS hat ja mit Werbewirkung
gar nichts zu tun. Er bezeichnet vielmehr die von jeder Werbewirkung absolut freie Verkaufsstärke eines Produkts.
203
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
• Stimulated STAS: Diese Daten werden mit dem Einkaufsverhalten
von Personen verglichen, die während derselben Zeit Kontakt mit der
Fernsehwerbung für das Produkt hatten. Der so ermittelte Wert heißt Stimulated STAS – das ist also die durch Fernsehwerbung erzeugte höhere
Verkaufsstärke eines Produkts.
• STAS-Differential: Der Unterschied zwischen beiden Werten bzw. ein
daraus errechneter Indexwert, das STAS-Differential, stellt nach Jones ein
einfaches und direktes Maß für kurzfristige Werbewirkung dar. Dabei kennzeichnen Indexwerte über 100 eine positive Wirkung, Werte unter 100 eine
negative Entwicklung. Das STAS-Differential für eine Marke sollte also
möglichst weit über 100 liegen. Marken mit einem negativen STAS-Differential gelingt es nicht, sich gegen den Werbedruck der Konkurrenz durchzusetzen.
Die Ergebnisse der Jones-Studie basieren auf Daten aus einem nationalen
Panel des amerikanischen Marktforschungskonzerns A. C. Nielsen. Die
Messung erfolgte in 2000 Haushalten auf wöchentlicher Basis. In zwölf
Konsumgüterkategorien hatten die Nielsen-Forscher insgesamt 142 Marken
über einen Zeitraum von einem Jahr beobachtet. Für 80 dieser Marken
wurde im Fernsehen geworben, 62 Marken wurden ohne jede Werbung verkauft. Dabei ergab sich: 70 Prozent der untersuchten Kampagnen erzielten
kurzfristige Verkaufserfolge. 46 Prozent erzielten auch Langzeit-Erfolge. In
Einzelfällen konnten kurzfristige Zuwächse von 60 Prozent erzielt werden.
Mehr noch: 93 Prozent der kurzfristigen Verkaufserfolge (innerhalb einer
Woche nach Ausstrahlung) wurden durch einen einzigen Werbekontakt
erzielt.
Nachdem Jones 1994 den Erfolg von Kampagnen in den USA untersucht
hatte, führte er in zwei Studien identische Analysen auch für 35 bzw. 28 Produktkampagnen in Deutschland durch. Die Ergebnisse wiesen grundsätzlich
in dieselbe Richtung: Fernsehwerbung löste in Deutschland bei 65 bzw.
80 Prozent aller untersuchten Kampagnen innerhalb von sieben Tagen eine
kurzfristige Absatzsteigerung aus. Bei über einem Drittel bis der Hälfte der
Kampagnen war darüber hinaus auch eine langfristige positive Wirkung über
einen Zeitraum von einem Jahr zu beobachten. Im Hinblick auf Unternehmensgewinne war Fernsehwerbung effektiver als Preispromotion, die Kombination beider Maßnahmen erzielte die beste Wirkung. Schließlich war
auch in Deutschland kontinuierliche Werbung erfolgreicher als hohe Konzentrationen von Werbung auf sehr kurze Zeiträume.
Es handelt sich bei STAS um ein sehr einfaches, ja grobschlächtiges Instrument,
das nicht viel mehr als eine Neuauflage des Netapps-Verfahrens darstellt, das der
amerikanische Marktforscher Daniel Starch bereits in den dreißiger Jahren des
vergangenen Jahrhunderts eingesetzt hat. Es ist also ein ziemlich alter Hut, der
da in etwas neuem Gewande so viel Begeisterung auslöst.
204
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Netapps ist eine Abkürzung. Sie bezeichnet ,,net ad-produced purchases“ – die
unter dem Strich allein durch Werbung generierten Verkäufe. Zur Ermittlung
des direkten Verhältnisses von Werbeaufwand und Verkaufserfolg wird dabei das
Verhalten der Personen mit Werbekontakt mit dem der Personen ohne Werbekontakt verglichen, und zwar in Panelbefragungen. So ergibt sich die Ermittlung der ausschließlich auf den Einfluss der Werbung zurückführbaren Käufe –
eine relativ einfache Rechnung. Bereits gegen dieses Verfahren lassen sich zwei
grundsätzliche Einwände erheben:
1. Es wird nur jener Umsatzeffekt der Werbung erfasst, der unmittelbar
nach der Streuung der Werbemittel eintritt. Längerfristige Umsatzwirkungen,
die die kurzfristigen Ergebnisse verstärken, schmälern, aufheben oder sogar
überkompensieren, bleiben unbeachtet.
2. Bei Werbemitteln, die in sehr kurzen Intervallen gestreut werden, ist es
höchst problematisch, die unmittelbar nach Erscheinen getätigten Mehrkäufe
der Werbewahrnehmer kausal dem einzelnen Werbemittel zuzurechnen. Sehr
häufig wird es so sein, dass vorangegangene Werbeaktivitäten, Erfahrungen
mit dem Produkt und der Firma sowie bestehende Kaufabsichten die Aufmerksamkeit und das Interesse potenzieller Abnehmer geweckt haben. Eine
so gestimmte Abnehmerschaft beachtet entsprechende Werbemaßnahmen
eher als bisher unmotivierte Personen.
Diese Einwände gelten auch für das Jones-Verfahren. Allerdings mit einer entscheidenden Variation: Während die alte Netapps-Technik sich der Methode
der Panelbefragung bediente, greift die STAS-Studie auf Single-Source-Daten
zurück. Single Source bedeutet, dass sowohl Daten über das Kaufverhalten von
Konsumenten wie über deren Mediennutzung aus einer einzigen Quelle, das
heißt, aus einem einzelnen Haushalt oder von einer einzelnen Person vorliegen.
Kombiniert mit der Information darüber, welche Produkte in den von den Konsumenten gesehenen bzw. nicht gesehenen Fernsehspots beworben wurden,
sind damit grundsätzlich kausale Schlüsse über die Beziehung zwischen
Werbemaßnahme und Werbeerfolg möglich.
Die Single-Source-Methode ist vor allem deshalb bedeutsam, weil sie kurzfristige Messungen überhaupt erst möglich gemacht hat. Technisch und methodisch
wäre das zwar auch vorher ohne weiteres machbar gewesen. Es ist aber faktisch
nicht getan worden.
Die landläufigen Handelspanels messen Verkäufe stets nur in relativ langen
Zeitabständen. Meistens alle zwei Monate. Durch diesen Raster sind die kurzfristigen Verkäufe stets durchgefallen. Dadurch entstand der irrige Eindruck,
205
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
dass kurzfristige Veränderungen durch Mediawerbung überhaupt nicht zu bewirken sind.
Auf jeden Fall stellt der jonessche Ansatz einen Rückfall in die Messmethoden
längst vergangener Zeiten dar. Er ignoriert dabei die weit fortgeschrittenen Techniken der neueren Forschung. Ohne jede Not. Denn mit raffinierteren Messmethoden ließen sich wesentlich differenzierte Erkenntnisse gewinnen.
Aus seinen Untersuchungen leitete Jones drei Hauptaussagen ab:
(1) Mediawerbung wirkt genauso kurzfristig wie Verkaufsförderung.
Das wird seither als die ,,heißeste“ These von Jones gehandelt. Langfristig
erfolgreiche Werbung muss bereits kurzfristig wirken. Die kurzfristige Werbewirkung ist eine unabdingbare Voraussetzung für ihren langfristig positiven Effekt auf die Verkaufszahlen.
Ja, was denn sonst? Hat irgendwann schon einmal irgendjemand das Gegenteil behauptet? Gibt es irgendwo in der Welt eine einzige Untersuchung, die
besagt: Werbung wirkt am Anfang überhaupt nicht oder nur ganz wenig, aber
am Ende dreht sie mächtig auf? Es heißt immer, John Philip Jones räume mit
dem Vorurteil auf, Mediawerbung wirke nur langfristig. Ja, hat denn jemals
irgendjemand einen solchen hanebüchenen Unsinn behauptet? Nein.
Response-Kurven sind immer schon von einem zunächst sehr schnellen
Anstieg der Werbewirkung ausgegangen. Die generalisierte Kontaktbewertungskurve – die berühmte, ja legendäre KKK, die konvex-konkave Kontaktbewertungskurve – heißt ja gerade so, weil sie konvex anfängt und dann
konkav weitergeht. Das heißt: Es geht mit der Werbewirkung erst einmal – bei
wachsender Kontaktzahl – rasant nach oben, und dann flacht es allmählich ab.
In dürren Worten: Werbung wirkt am Anfang und kurzfristig sehr stark, und
dann lässt sie ein wenig nach. Später kann sie nur noch mit ziemlich hohen
Kontaktdosen – also mit großem Aufwand – zum Wirken gebracht werden.
Diese Erkenntnis gehört zu den ältesten Hüten der Werbe- und Mediaforschung.
(2) Die zweite große Erkenntnis des John Philip Jones lautet: Eine kontinuierlich verteilte Kampagne bringt wesentlich mehr Absatzzuwächse
als Werbung in Intervallen. Die Studie erbrachte also den Nachweis, dass
der massierte Einsatz von Mediawerbung – genauer gesagt: von Fernsehwerbung, denn nur diese hat Jones empirisch untersucht – in kurzen Zeiträumen
deutlich weniger Absatzzuwächse bringt als kontinuierlich über das ganze
Jahr verteilte TV-Spots. Zum Thema Kleckern oder Klotzen argumentiert
Jones also wieder einmal für das Kleckern, genauer für das kontinuierliche
Kleckern in geringen Kontaktdosen.
206
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Auch dieser Befund ist bereits in den ältesten Marketinglehrbüchern durchaus differenzierter nachzulesen: Die Entscheidung über die zeitliche Verteilung von Marketingausgaben hängt von den Marketingzielen ab, heißt es da
meist.
(3) Ergänzen Werbung und Verkaufsförderung einander gegenseitig, so
kann der langfristige Verkaufserfolg bis zu achtmal größer sein als beim
alleinigen Einsatz von Mediawerbung. Die größte Langzeitwirkung wird
erzielt, wenn ein positiver STAS-Wert mit überdurchschnittlichen Werbeaufwendungen und überdurchschnittlichen Verkaufsförderungsmaßnahmen
kombiniert wird.
Dies ist also ein Argument für den virtuosen Einsatz des Marketingmix und
gegen Monokampagnen. Es ist ohne jeden Zweifel ein richtiges, aber eben
auch kein originelles Argument. Mit der Erkenntnis, dass Mix-Kampagnen
Mono-Kampagnen überlegen sind, ist die Werbebranche seit Jahrzehnten
bestens vertraut.
Das Advertising-Response-Modell (ARM): Kreativität zählt
Das Advertising-Response-Modell wurde 1997 von der Nürnberger Gesellschaft
für Konsumforschung (GfK) im Auftrag des Gesamtverbands Werbeagenturen
(GWA) entwickelt. Es soll die Wirkung von Marketingaktionen auf Marktanteile
belegen und wurde wohl auch aus taktischen Notwendigkeiten geboren: (1) Zum
einen sollte es die etwas dürren Daten der Jones-Studie mit etwas Fleisch bereichern, (2) und zum anderen konnte es der GWA als Verband der Werbeagenturen,
die stets so viel Wert darauf legen, dass sie Horte menschlicher Kreativität sind,
auf Dauer nicht auf sich sitzen lassen, dass in den vorangegangenen Studien die
werbliche Qualität von Kampagnen als Quantité négligeable erschienen war.
Das Advertising-Response-Modell (ARM)
Für das Advertising-Response-Modell (ARM) wurden die Aufmerksamkeitsstärke und die Vermittlung von Markenpräferenz durch TV-Spots in
Werbemittel-Pretests erhoben. Damit soll nicht nur der Einfluss des Werbedrucks, sondern auch der Einfluss der Werbequalität auf den Marktanteil
bestimmt werden. So ergibt sich, wie sich die Marktanteile einer Marke
entwickeln können, wenn sich einzelne Einflussvariablen wie Werbedruck,
Markenpräferenz oder Promotionintensität verändern.
Die zur Modellierung der Werbewirkung erforderlichen Inputvariablen
wurden auf Größen beschränkt, über die ein Werbung treibendes Unter207
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
nehmen in der Regel verfügt. Im Einzelnen sind dies: Werbedruck, Aufmerksamkeitswirkung und Markenpräferenz (sie spiegeln die Werbequalität
wider), Promotion- und Normalpreise, Anteil an Zweitplatzierungen,
Promotionsintensität und gewichtete Distribution für die eigene Marke und
die Warengruppe).
Mit ARM wurden 17 bekannte starke und etablierte Marken aus Produktgruppen wie Kaffee, alkoholfreie Getränke, Süßwaren, Mundhygiene
und Fertiggerichte über einen Zeitraum von zwei Jahren beobachtet, die
hauptsächlich im Fernsehen beworben wurden.
Erstaunlichstes Ergebnis der Studie sei ,,der Nachweis der starken Wirkung der
Werbequalität auf den Marktanteil“, sagt Siegfried Högl, Geschäftsführer der
GfK-Marktforschung. Werbungtreibende könnten dagegen oft nur ,,geringfügige
Marktanteilseffekte“ erwarten, wenn sie den Werbedruck verdoppeln. Eine Preissenkung von beispielsweise 7,5 Prozent verspricht zwar ein Marktanteils-Plus
von 14,2 Prozent. Doch neben sinkendem Gewinn könnten Preisaktionen langfristig auch den Markenwert schädigen.
• Die größte Steigerung des Marktanteils erzielen Werbedruck und
Werbequalität. Sie erhöhen den Marktanteil in 12 Monaten auf einen Indexwert von zirka 122, während eine Verdopplung der Promotion-Intensität nur
zu einem Indexwert von 117,5 führt.
• Sogar eine Verdopplung von Promotion-Intensität und Werbedruck erzielt
einen geringfügig kleineren Wert (121) als die Steigerung von Werbedruck
und Werbequalität.
• Unter den drei Faktoren Werbedruck, Aufmerksamkeitsstärke der Kampagne und Vermittlung von Markenpräferenzen erzielte die Markenpräferenz
das mit großem Abstand beste Ergebnis (Index 116).
Während eine Verdopplung des Werbedrucks nur geringfügige Marktanteilseffekte erwarten lässt, kann durch eine 20-prozentige Steigerung der
Aufmerksamkeitsstärke in Verbindung mit einer Verdopplung der Vermittlung von Markenpräferenz und einer Verdopplung des Werbedrucks eine
Steigerung des Marktanteils erwartet werden, die über die Steigerung durch
eine Verdopplung der Promotion-Intensität hinausgeht.
Die oft unterstellte Unterlegenheit der Verkaufswirkung von Werbung im Vergleich zu Promotions sei damit möglicherweise nur ein Problem bislang fehlender Messmöglichkeiten: Neue Munition in der Auseinandersetzung des
Gesamtverbands Werbeagenturen über die Rivalität zwischen Werbung und
Verkaufsförderung.
208
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Die Werbewert-Formel
Die Berechnung des Werbewerts
Der Werbewert beruht auf der grundsätzlichen Überlegung, dass der Marktanteil der aktuellen Zeitperiode durch Marktanteil der Vorperiode, die
Distributionsänderung, den Werbeanteil und den Mediamix bestimmt wird.
Dabei wurde der Marktanteil der Vorperiode seinerseits bereits durch
Distributionsänderungen und Werbeinvestitionen beeinflusst.
Anders als die Jones-Studie ist die Werbewert-Formel für die Abschätzung
des Werbeerfolgs von TV- und Printmaßnahmen bzw. deren Kombination
angelegt. Dazu untersuchte Peter Beike zunächst 195 Kampagnen aus 81
Produktbereichen von alkoholfreiem Bier bis Zwieback über einen Zeitraum
von zunächst 18 Doppelmonaten zwischen Mitte 1991 und Ende 1994 und
dann für die 1997er-Studie noch einmal 147 Marken aus 69 Produktbereichen. Dafür wurden die Werte für alle Doppelmonate zwischen Anfang 1991
und 1996 herangezogen. Die Produkte stammten durchweg aus der Kategorie der ,,Fast Moving Consumer Goods (FMCG), der schnell umschlagenden Konsumgüter. Und die Werbewert-Formel kann folglich ihre begrenzte
Gültigkeit vorwiegend für diesen Bereich beanspruchen.
Einbezogen wurden nur marketingübliche direkte Werbeaufwands- und
Werbewirkungskriterien wie die von der A. C. Nielsen S + P Werbeforschung gemessenen Werbeausgaben und Medienbelegungen sowie die vom
A. C. Nielsen Handelspanel ermittelten Informationen über Marktanteile
und Distributionsänderungen je Marke: Werbedosis ist der aktuelle Werbeaufwand, der Werbeerfolg ist die aktuelle Marktanteilsbewegung.
Zur Ermittlung von Abhängigkeiten wurden diese Daten dann einer
ökonometrischen Analyse unterzogen. Über eine nonlineare multiple Regressionsanalyse wurden verrechnet: Die Marktanteile pro Doppelmonat bzw.
die Veränderungen je Marke nach Wert, die Werbeausgaben für Print und TV,
jeweils als Anteil der Marke an den Gesamtwerbeaufwendungen pro Produktgruppe (Share of Advertising = SOA) und die umsatzgewichtete Distribution.
Verbal ausgedrückt, besagt die Werbewert-Formel: Der Marktanteil in der
aktuellen Periode beruht zu einem großen Teil auf dem Marktanteil der Vorperiode. Der Koeffizient von 0,98 besagt dabei, dass am Ende der aktuellen
Periode noch 98 Prozent des vorherigen Marktanteils gehalten werden, wenn
keine Werbung erfolgt. Allerdings geht der Einfluss des Vorperioden-Marktanteils mit steigender Marktanteilsgröße immer stärker zurück. Die Variable
Distribution macht sich nur im Fall von Distributionsänderungen direkt proportional bemerkbar. Bei unveränderter Distribution hat sie den Wert eins
und folglich keinen Einfluss. Der Einfluss der Werbeinvestitionen stellt sich
als Summe der Werbeanteile der einzelnen Mediengattungen dar. Sie tragen
mit 15 bis 19 Prozent des Werbeanteils zur Marktanteilsveränderung bei.
209
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Der Werbewirkungskompass
Ein nützliches Instrument der Wirkungskontrolle ist der von Erna Engelsing für
IP Deutschland entwickelte Werbewirkungskompass.
Der Werbewirkungskompass (WWK) von IP Deutschland
Zweck des Werbewirkungskompasses ist die Kontrolle von Werbeinvestitionen. Er verfolgt zwei Ziele: die kontinuierliche Messung des Kommunikationserfolgs aller werberelevanten Marken aus ausgewählten Produktbereichen
und die generelle Analyse der messbaren Einflussfaktoren des Werbeerfolgs.
Seit September 1992 wurden – in Wellen von drei Monaten – jeweils
2000 Interviews durchgeführt, die sich auf elf Produktbereiche und 129
Marken beziehen. Ausgangspunkt der Überlegungen, die dem Werbewirkungskompass zu Grunde liegen, sind sechs Werbewirkungsfaktoren, deren
Zusammenspiel den Werbeerfolg einer Marke bestimmt. Es sind dies: der
Werbedruck, die Zielgruppenzugehörigkeit der angesprochenen Personen,
die Branchenzugehörigkeit der jeweiligen Marken, der Werbedruck der Konkurrenzmarken, die Mediastrategie und die Kreation.
Erfragt wird der Werbeerfolg durch direkte und indirekte Werbewirkungsparameter. Die direkten Werbewirkungsparameter sind spontane Werbeerinnerung bzw. Werbe-Awareness, Erinnerung an Details der Werbung, Sympathie
für die Kampagne und die Beurteilung der Werbung. Indirekte Maße der
Werbeeffizienz sind die spontane Markenbekanntheit, die gestützte Markenbekanntheit, Markensympathie, Markenverwendung, Kaufneigung und das
Markenimage.
Die Wirkungsdaten werden mit MA-kompatiblen Angaben zur Mediennutzung (Fernsehen, Hörfunk, Publikumszeitschriften und überregionale Tageszeitungen) verknüpft. Über vier Auswertungsstufen wird der individuelle
Werbedruck pro Person errechnet. Damit soll gewährleistet werden, dass
unterschiedliche Mediengattungen und unterschiedliche Formate im gleichen Medium nicht ungewichtet addiert oder nach subjektiven Kriterien
gewichtet werden. Die Verrechnung der tatsächlichen Mediakosten mit den
erhobenen Nutzungswahrscheinlichkeiten führt zum investierten Geldbetrag
pro Person.
Die Besonderheit des Werbewirkungskompasses besteht also darin, dass pro
befragte Person auf der Grundlage der individuellen Mediennutzung sowie
der Bruttowerbeaufwendungen pro Marke ein personenindividueller Werbedruck berechnet wird, der Auskunft über die tatsächlichen Kontaktkosten je Marke und erreichte Person gibt. Der Mediapfennig drückt den
Werbedruck pro Person in Pfennig aus. Begründung: ,,Die objektive Messlatte für den Kommunikationserfolg ist allein der investierte Geldbetrag pro
Person.“
210
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Der Datenbestand des Werbewirkungskompasses ermöglicht marken- und personenindividuelle Auswertungen über die Zusammenhänge zwischen Werbedruck
und Werbewirkungsindikatoren. Darüber hinaus kann man mit seiner Hilfe generalisierende Befunde über den Kommunikationserfolg gewinnen, die Auskunft
über Niveau und Verlauf von acht Werbewirkungsindikatoren in Abhängigkeit
vom personenindividuellen Werbedruck geben. Einige dieser Hauptbefunde
lauten:
Es besteht ein positiver Zusammenhang zwischen Werbedruck und den erfassten
Wirkungsindikatoren, wobei die direkten Maße – vor allem Werbeerinnerung –
stärker reagieren als die indirekten Werbewirkungsparameter. Entgegen der verbreiteten Auffassung besteht kein linearer Zusammenhang zwischen Werbeerinnerung und individuellem Werbedruck. 5 Prozent der Personen, die in den
zurückliegenden drei Monaten keinen Kontakt mit den Werbemitteln einer Kampagne hatten, konnten sich dennoch an sie erinnern.
Der Depotwert aus der Vergangenheit beeinflusst die Werbeerinnerung in der
Gegenwart. Bei der globalen Werbeerinnerung an eine Marke weist die Wirkungskurve bis zu einem Betrag von vier Pfennig pro Person progressive
Wachstumsraten auf. Dann folgt ein kontinuierliches Wachstum bis zu einem
Erinnerungswert von 30 Prozent bei einem Werbedruck bis zu 25 Pfennig.
Auch in dieser Untersuchung ergab sich also ein nicht linearer Zusammenhang
zwischen Werbeaufwendungen und Werbeerfolg: Ab einem Werbedruck von
fünf Pfennig pro Person müssen überproportional hohe Werbeaufwendungen
eingesetzt werden, um eine weitere Steigerung zu erzielen. Zielgruppenspezifische Analysen zeigten, dass sich die stärksten Effekte bei Markenverwendern,
jüngeren Menschen, Produktinteressierten, Menschen mit positiver Einstellung
zur Werbung und bei niedriger Gebildeten ergaben.
Der härtere Wirkungsparameter ,,Werbeerinnerung an Details“ beginnt mit einem
niedrigen Depotwert von 3 Prozent und liegt bis zu einem Wert von 23 Prozent
bei 25 Pfennig unter der Marge der globalen Werbeerinnerung. Die Kurve für
,,Kampagnensympathie“ liegt bis etwa 15 Pfennig oberhalb der globalen Werbeerinnerung und nähert sich dieser dann an. Die indirekten Werbewirkungsparameter weisen einen höheren Depotwert und insgesamt höherprozentige
Wirkungswerte aus. Ein Vergleich der relativen Zuwachsraten zeigt, dass mit
steigendem Werbedruck die primär gedächtnisabhängigen Parameter wie die
Erinnerung an die Werbung die höchsten Zuwachsraten zeigen. Kaufneigung und
Markensympathie dagegen weisen die geringsten Veränderungen aus.
211
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Bei der Untersuchung des Einflusses der Zielgruppen auf die Intensität der Werbewirkung standen folgende Fragen im Mittelpunkt:
• Welche Zielgruppenmerkmale beeinflussen bei identischem Werbedruck
pro Person die Höhe der Werbewirkungswerte?
• Wie stark ist der Einfluss der einzelnen Zielgruppenmerkmale auf die Höhe
der sieben Werbewirkungsparameter?
• Welche Beziehung besteht zwischen Werbedruckklassen und Stärke des
Zielgruppeneinflusses?
Ergebnis: Das demografische Merkmal Alter beeinflusst die Werbeerinnerung
am stärksten. Um die gleiche Werbeerinnerung wie bei Jüngeren zu erzeugen,
brauchen Ältere einen mehrfachen Werbedruck. Für eine identische Erinnerungsquote von 23 Prozent ist bei 14- bis 29-Jährigen ein Werbedruck von nur vier
Pfennig erforderlich, bei den über 60-Jährigen braucht man dafür 20 Pfennig. Je
höher der Werbedruck, desto geringer der Alterseinfluss.
Personen mit weiterführender Schulbildung können sich bei identischem Werbedruck deutlich besser an Werbung erinnern als Personen mit Volksschulbildung.
Allerdings ist der Einfluss der Schulbildung auf das Niveau der Wirkungskurve
nur halb so groß wie der des Alters. Die Markensympathie wird von der Schulbildung nicht sonderlich tangiert.
Ein weiterer Faktor ist die Einstellung zur Werbung. Personen mit einer positiven Einstellung zur Werbung erzielen höhere Erinnerungswerte als Personen mit
einer negativen Einstellung zur Werbung. Dabei wirkt sich die Einstellung zur
Werbung in erster Linie und intensiv auf die Kampagnensympathie aus.
Auch das Merkmal Produktinteresse ist relevant. Personen, die sich ,,sehr“ bzw.
,,auch noch“ für die jeweilige Produktgattung interessieren, erzielen bei identischem Werbedruck deutlich höhere Erinnerungswerte als Personen mit geringerem bzw. mit gar keinem Produktinteresse. Das Produktinteresse beeinflusst vor
allem die globale und detaillierte Erinnerung an Werbung.
Das Kriterium Markenverwender/-nichtverwender beeinflusst das Erinnerungsniveau an Werbung ebenfalls gravierend. In der Studie zeigt sich, dass Markenverwender, die in der aktuellen Periode keinem Werbedruck ausgesetzt waren,
noch beachtliche Erinnerungsquoten von 17 Prozent erzielen. Nichtverwender
liegen hingegen bei 4 Prozent. Während die Werbewirkungskurve bei den Markenverwendern ab fünf Pfennig kaum noch nennenswerte Zuwachsraten erbringt
und nahezu auf diesem Niveau verharrt, ist das Gegenteil bei den Nichtver212
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
wendern der Fall. Sogar in den hohen Kontaktklassen sind noch beachtliche
Zuwachsraten zu erzielen.
Die Wirkungsvoraussetzungen in den untersuchten elf Branchen unterscheiden
sich stark. Die wichtigsten Unterschiede beziehen sich auf (1) die Zahl der
beworbenen Marken, (2) die Höhe des Markenetats einer Branche und (3) die
Gesamtaufwendungen einer Branche. Hinzu kommt, dass in den elf Branchen
sehr unterschiedliche Mediastrategien verfolgt werden, insbesondere beim Mediamix. Schließlich ist das Produktinteresse in den verschiedenen Bereichen unterschiedlich stark ausgeprägt.
Die Branche und die Struktur der Zielgruppe haben einen erheblichen Einfluss
auf die Werbewirkung. So weichen die Wirkungserfolge abhängig von der Branche teilweise gravierend vom Durchschnitt ab. Der Grund: Die verschiedenen
Branchen werben unter unterschiedlich starkem Druck der Konkurrenz. Sie
unterscheiden sich durch Höhe des Werbedrucks, durch die Mediastrategie und
durch das Interesse des Konsumenten am jeweils angebotenen Produkt. Und weil
die optimale Kontaktdosis für den Werbeerfolg je nach Zielgruppe variiert, entscheidet diese letztendlich, wie viele Media-Millionen fließen müssen, um die
nötige Überzeugungsarbeit beim Rezipienten zu leisten.
Gerade weil die Zielgruppenstruktur erheblichen Einfluss auf die Werbewirkung
ausübt, müsse sie vorher herausgerechnet werden, damit auf diese Weise die Leistung von Mono- und Mix-Kampagnen sich forscherisch sinnvoll vergleichen
lässt. Erst dann ergebe sich der tatsächliche Wirkungsbeitrag unterschiedlicher
Mediastrategien. Engelsing: ,,Der beachtliche Einfluss der Zielgruppen auf die
Wirkung von Kampagnen wird häufig als Medieneffekt missinterpretiert.“
Der Vorteil des Werbewirkungskompasses liegt darin, dass zwischen unterschiedlichen Produkten, Märkten, Branchen und Zielgruppen differenziert werden
kann. Allerdings erfasst er, wie die meisten Verfahren der Werbewirkungsmessung, nicht das tatsächliche Konsumverhalten. Die ermittelten Daten zur Werbewirkung sind damit noch keine Garantie für die zweifelsfreie Abschätzung des
Werbeerfolgs, denn selbst wenn Konsumenten sich an Spots erinnern, sie positiv
bewerten und ihnen das vermittelte Image einer Marke gefällt, ist dies noch keine
hinreichende Voraussetzung für eine tatsächliche Kaufentscheidung.
Ein anderes Manko von Untersuchungen wie dem Werbewirkungskompass ist
es, dass auch hier keine strukturierten und differenzierten Analysen des Zusammenhangs von Werbeinhalten und Werbewirkung vorgenommen werden. Die
tatsächlichen Reaktionen der Rezipienten können daher nicht mit Sicherheit
abgeschätzt werden.
213
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Fazit: Alle ökonometrischen Untersuchungen sind geprägt von dem Glauben,
dass Millionen Fliegen nicht irren können. Die daraus abgeleiteten Verallgemeinerungen wiederum sind getränkt von der Philosophie des arithmetischen Mittels: Wenn etwas für 199 Marken stimmt, dann wird das doch wohl auch für die
200. Marke nicht ganz und gar falsch sein. Aber bereits die Verallgemeinerungen
für die 199 Marken sind das Resultat von Mittelwertbildungen.
Das Kennzeichen der heutigen Märkte ist aber eine wachsende Individualisierung der Marken, der Marktprozesse und der Kommunikationsmixe sowie eine
hohe Komplexität der Zusammenhänge. Sie erfordern individuelle Analysen und
nicht Durchschnittslösungen.
Als ,,zentralen sozialtechnischen Leitsatz“ über beeinflussende Kommunikation
bezeichnet der verstorbene Werner Kroeber-Riel die Einsicht: ,,Die Werbung
kann sich nicht an einem einheitlichen Wirkungsmodell orientieren. Es ist zwar
bequem und ermöglicht die Anwendung von Faustregeln, wenn sich Gestaltung
und Kontrolle der Werbung an einem einheitlichen und einfachen Wirkungsmodell orientieren. Dieses Vorgehen führt aber in die Irre: Es gibt nicht die Werbung, sondern verschiedene Bedingungen und Darbietungsformen der Werbung,
die zu ganz unterschiedlichen Wirkungen führen.“
Daran wird man sich gewöhnen müssen: Es gibt kein einheitliches Wirkungsmodell für die Werbung. Es wird auch nie eines geben. Die Kommunikationsforschung hat es mit komplexen Systemen zu tun. Deshalb kann es einfache
Formeln für effiziente Werbung nicht geben. Sie sind bereits ein Fehler im
Denkansatz.
Um schließlich die anfangs gestellte Frage zu beantworten: Nein, natürlich sind
die Ökonometrie und die ökonometrische Werbeforschung nicht am Ende. Aber
ihr heuristischer Ertrag unterliegt seit mehr als einem halben Jahrhundert praktischer Anwendung dem Gesetz vom abnehmenden Grenznutzen. Der Forschungsaufwand wird immer gewaltiger, aber insgesamt kommt immer weniger heraus.
Die Blütezeit der ökonometrischen Werbeforschung ist längst vorüber.
214
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Wie Auflagenzahlen und Reichweiten
zusammenhängen
Von Karl Steurer
Problem Nr. 1
„Mein(e) Magazin/Zeitung hat eine Auflage von 50 000, die meines Konkurrenten eine Auflage von 45 000, erzielt aber eine höhere Reichweite. Da muss etwas
falsch sein (nämlich die Studie/MA/LA).“
Mit diesem Beitrag werde ich versuchen, einen Schlussstrich unter dieses Thema
zu ziehen. Nach gut 50 Jahren Diskussion wäre es an der Zeit. Denn die ersten
Diskussionen tauchten auf, als laufende, standardisierte Leser-Analysen das
Licht der Welt erblickten, also in den 50er-Jahren des vergangenen Jahrhunderts.
Damals erblickte auch die Faustregel „1 Druck-Exemplar = 3 Leser“ das Licht
der Welt, und man kann sie immer noch vereinzelt hören. Die Quelle dieser
„Regel“ konnte nie eruiert werden. Inzwischen gibt es ja genug fundierte MediaAnalysen und Organe zur Auflagenkontrolle. Die verbreitete Auflage hat zu
Recht die Druckauflage als zentralen Kennwert der Auflagenkontrolle abgelöst.
Wenn ich im Folgenden von Auflage spreche, ist damit immer die verbreitete
Auflage gemeint.
Warum generieren zwei Zeitungen bzw. Magazine mit identer oder zumindest
nahezu identer verbreiteter Auflage unterschiedlich große Leserschaften? Oder
warum erzielt ein Magazin mit geringerer Auflage mehr Leser als eines mit
höherer Auflage?
Für die meisten Verleger – und das Problem existiert real nur für Verleger, Werbeagenturen tangiert es kaum – ist ein solcher Tatbestand unerklärlich und daher
falsch. In diesem Zusammenhang sei auf den Umstand hingewiesen, dass sich
kein Verleger je aufgeregt hat – psychologisch natürlich voll erklärbar –, wenn
sein Objekt mehr Leser hatte als es ihm, egal nach welcher Berechnung, zukäme.
Da die Auflagen geprüft und daher richtig sind, kann nur die MA/LA falsch sein,
wenn die Relationen nicht stimmen. Denn es ist doch unmöglich, dass ich bei
höherer Auflage weniger Leser habe als ein Mitbewerber.
215
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Weit gefehlt! Nur für Printmedien mit
1. identem Erscheinungsintervall
2. identer Auflagenstruktur
3. identem Typ (general, special)
4. identer Marketing-Zielgruppe
kann erwartet werden, dass die Größe der Leserschaft ähnlich groß ist.
Doch selbst Identität in diesen Punkten lässt nicht gleich große Leserschaften
zwangsläufig erwarten.
Je größer das Erscheinungsintervall, umso größer die Chance, potenzielle Leser
(WLK) zu sammeln, und umso größer die Chance, daraus Leser zu generieren
(LpA). Wenn zwei Magazine dieselbe verbreitete Auflage bescheinigt bekommen, eines davon aber ein Wochenmagazin ist, das andere ein Monatsmagazin,
dann wird die Leserschaft in den wenigsten Fällen ident sein. Und Tageszeitungen haben im Allgemeinen (außer an Wochenenden) nur einen Tag Zeit, Leser zu
„sammeln“, denn kaum jemand liest die Tageszeitung von gestern. Damit kommt
dem Weitesten Leserkreis (WLK) eine zentrale Bedeutung zu, die selten honoriert wird, weil alles wie gebannt auf den Leser pro Ausgabe (LpA) schaut.
Die Auflagenstruktur kann wesentlichen Einfluss auf das Sammeln von Lesern
haben. Objekte mit gleicher Auflage, aber unterschiedlicher Auflagenstruktur
sollten (im Zeitverlauf) unterschiedliche Leserzahlen produzieren. Die Leserschaft einer Zeitung, die fast ausschließlich im Abo verkauft wird, wird anders
ausfallen als die einer Zeitung, die vorwiegend im Einzelverkauf oder gratis verteilt wird.
Abos generieren in der Regel sichere und vor allem stabilere Leser. Gratis-Exemplare täuschen in ihrer Effizienz, und Mitglieder-Exemplare (Autofahrerclubs,
Gewerkschaften, Vereine usw.) zeichnen sich durch einen niedrigen LpA aus.
In Österreich liegt deren LpE durchwegs unter 2,0, wobei sogar ein Leser pro
Exemplar (LpE) unter 1,0 aufgedeckt werden konnte, für einen Verleger ein
undenkbares Faktum.
Und was bringen Zeitungen und Magazinen mit einer hohen Auflage in
Kaffeehäusern in Städten mit hoher Kaffeehauskultur, wie z.B. Wien? Eine hohe
Kaffeehaus-Auflage kann beträchtliche Leserschaften generieren.
Auch der Zeitungstyp spielt eine entscheidende Rolle für ihre Fähigkeit, Leser
zu akkumulieren, ceteris paribus. Ein General-Interest-Magazin hat eine größere
Chance, Leser zu sammeln, als ein Special-Interest-Magazin, da Ersteres eine
größere Chance hat, Mitleser im Bezieherhaushalt (oder auch außerhalb) zu
bekommen als Letzteres.
216
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Bei Special-Interest-Medien kommt noch das Problem des „Extended Reading =
gedehntes Lesen (Lexikon-Effekt)“ als Einflussmöglichkeit auf den LpA hinzu,
das durch keine vertretbaren Maßnahmen im Rahmen von Befragungen ausgeschaltet werden kann. Man denke vor allem an Reisemagazine, Computerzeitschriften, Magazine wie etwa P.M oder Bild der Wissenschaft.
Aber auch die Marketing-Zielgruppe sollte nicht unberücksichtigt bleiben. Jeder
Verlag wird in der Regel Vorstellungen haben, wer seine Käufer (Leser) sein
sollen, mehr oder weniger abgesichert durch Marktstudien. Wenn nun die Marketing-Zielgruppe zweier Objekte nicht dieselbe ist, dann kann auch nicht erwartet werden, dass die Leserschaften, ceteris paribus, gleich hoch ausfallen. Oder
glaubt jemand tatsächlich, dass 100 000 Exemplare von z.B. Bravo gleichviel
Leser generieren wie 100 000 Exemplare für etwa Die Zeit oder CHIP oder
Micky Maus? Wenn ich mir als Verleger ein spezielles Bevölkerungssegment für
eine Publikation wähle, so kann ich doch nicht erwarten, eine nach einer „Faustregel“ erwartete Leserschaft zu generieren.
Nur wenn für zwei Objekte diese Einflussvariablen weitestgehend ident sind,
kann erwartet werden, dass gleiche Auflagen ähnlich viel Leser generieren.
Doch, wie schon erwähnt, genügen auch diese Einflussvariablen nicht, Leserschaften aus gegebener Auflage befriedigend zu erklären. Aus Österreich weiß
ich, dass die verbreitete Auflage etwa 75 Prozent der Varianz erklärt. Dies die
Befunde aus 1998 und 2001. Ich erachte diesen Prozentsatz für ausgezeichnet.
Was erwartete man sich? Einen vollkommenen Parallel-Verlauf der Leser- bzw.
Auflagenkurve?
Bis zu diesem Punkt handelt es sich bei unserem Problem um ein Problem des
Vergleichs zweier oder mehrerer Printmedien zu einem Zeitpunkt. Obwohl
Datenrelationen nicht von einem Land auf ein anderes übertragen werden dürfen
– regressionsanalytische Beziehungen gelten immer nur für den analysierten
Datensatz – so bin ich mir sicher, dass in keinem europäischen Land mit
ausgeprägter Printmedienkultur ein auch nur annähernd paralleler Verlauf von
Auflage und Leser entdeckt werden kann. Das heißt aber auch, dass mit der
verbreiteten Auflage allein die Größe der Leserschaft weder erklärt noch prognostiziert werden kann. Letzteres wird immer ein Wunschtraum bleiben. Im
Übrigen ist der LpE ein idealer Kennwert, der uns mit einem Blick die Diskrepanz Auflage/Leser aufzeigt. Diese Diskrepanz ist kein Beweis, dass die MA/LA
falsch ist, sondern dass Auflagen und Leser in ihren Größenordnungen nicht parallel laufen.
217
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Wie schon gesagt: In Österreich erklärt die verbreitete Auflage allein gerade
einmal zirka 75 Prozent der Varianz (R2). Die Daten für die beiden analysierten
Jahre führen zum gleichen Ergebnis
1998: R2 = 76 %
2001: R2 = 77 %
Hat jemand vielleicht mehr erwartet? Ich weiß: Die Verleger hätten gerne 100
Prozent.
Und was bringt uns die Einführung der Auflagenstruktur als weitere erklärende
Variable? Meiner Meinung nach viel, aber doch wohl nicht genug für den Verlagsmanager. Die Varianzaufklärung steigt 1998 auf gute 82 Prozent bzw. 2001
auf 85 Prozent, wobei der Anteil der Mitglieder-Exemplare bzw. EV-Exemplare
den stärksten Einfluss auf die verbesserte Aufklärung haben. Die Stabilität
scheint mir verblüffend, Differenzen auch durch mehr Titel und verbreiterte
Strukturwerte im Jahre 2001 mitverursacht.
Ich muss leider zum Teil theoretisieren, da die Datenlage in Österreich noch
sehr unbefriedigend ist, soweit es die Auflagenkontrolle (ÖAK) betrifft. Diese
gibt es in Österreich erst seit 1994, während Daten aus der MA seit 1992
jährlich verfügbar sind. Unterschiedliche Mitgliederzahlen, sich ändernde Definitionen, Aussteigen ganzer Firmentitel, Nicht-erheben-Lassen anderer Firmentitel erschweren noch immer eine fundierte Analyse über die Jahre hinweg, um die
Modelle auf Stabilität prüfen zu können. Die beigefügten Tabellen der Regressionsanalyse mit der Auflage und Auflagenstruktur als UVn für 1998/2001 sollten dem Interessierten tiefere Einblicke in die Beziehungssituation in Österreich
ermöglichen.
218
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
219
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Problem Nr. 2
Nach langer Beschäftigung mit dem Problem Auflage – Leser ist für mich Problem Nr. 2 keines mehr. Die Ausgangsbehauptung heißt da:
„Ich habe von 2001 auf 2002 meine (verbreitete) Auflage um 2000 gesteigert, in
der MA sehe ich keinen Abdruck dieses Faktums.“
Die österreichische MA ist eine anerkannt gute Studie mit rund 17 500 Fällen,
mit der deutschen MA sehr gut vergleichbar. Können wir erwarten, dass ein solcher Zuwachs schon messbar ist? Es kann sein, muss aber nicht sein. Eher nicht,
denn die 2000 Zuwachs sind eine Bestandsgröße am Jahresende, entstanden aus
mehr oder weniger kontinuierlichem Zuwachs über zwölf Monate, was auch auf
die Interviews der MA zutrifft. Auswirken kann sich höchsten ein Wert zur Jahresmitte, der aber dann mit dem Wert zur Jahresmitte des vergangenen Jahres
verglichen werden müsste. Das wird sicher nicht getan. Ich würde sagen, dass ein
Netto-Zuwachs von 2000 Exemplaren erfassbar sein sollte, wenn dieser Zuwachs
konzentriert in einem Bundesland anfällt.
Mir ist nicht bekannt, dass – mit einer Ausnahme, die ich leider nicht zitieren
darf – Verleger laufend Auflage, deren jahreszeitlichen Verlauf und die Auflagenstruktur analysieren. Mag sein, dass der eine oder andere dies tut. Man vergisst jedoch sehr leicht, wie viele Komponenten/Faktoren berücksichtigt werden
müssen, um zu einem realistischen Ergebnis zu gelangen.
220
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Da wäre etwa zu berücksichtigen:
1. Lebenszyklus des Mediums. Der Lebenszyklus hat bedeutenden Einfluss
auf die Leserschaft und weist erneut auf die Bedeutung des WLK hin. Dieser
ist in der Anlaufphase tendenziell groß, sollte planungstechnisch so groß wie
möglich sein. In der Stabilisierungsphase werden EV-Käufer möglicherweise
zu Abonnenten, Unzufriedene fallen ab, die Mitleser werden weniger.
2. Entwicklung der Haushalte. Haushalte als Grundzellen der Generierung
von Mitleser. Die Abspaltung der Kinderhaushalte erfolgt heute viel früher
als vor Jahrzehnten. Mitleser verschwinden aus dem Vaterhaushalt, um
den neuen Haushalt zu gewinnen, muss mehr verbreiten werden, also
möglicherweise steigende Auflage bei gleich bleibender Leserschaft.
3. Entwicklung des Marktes. Alles, was im Laufe des Jahres im Markt abläuft
– Sterben und Geborenwerden von Medien jeglicher Art, Copypreis-Entwicklung, allgemeine Wirtschaftslage, Auftauchen neuer Kommunikationsformen wie z.B. Internet –, ist vorab entweder unbekannt oder in seinen
Auswirkungen schwer abschätzbar.
Auf Basis all dieser Fakten – kaum mehr Hypothesen – konnte ich bei der
EMRO-Tagung 2000 in Sorrent/Italien einige Modelle vorstellen, die es auch
bei extrem starker Print-Typen-Mischung in sehr hohem Maße erlauben, die
Plausibilität des LpA zu berechnen. Prognosen sind durch die Modelle nicht
möglich, da eine wichtige Einflussvariable erst nach Verfügbarkeit der MA-Daten
bekannt ist, nämlich der WLK. Mit der Einbindung des WLK in die Modelle als
UV steigt die erklärte Varianz dramatisch, und zwar in einem Umfang, dass die
Verleger fast über ihre 100 Prozent verfügen, die sie gerne hätten.
Die Kennziffern
WLK in Prozent
Verbreitete Auflage in Tausend
Auflagenstruktur (Abos, EV, Mitglieder, gratis)
erklären den LpA bis nahe an 100 Prozent, sind also ausgezeichnete
Plausibilitätskontrollen. Doch wie gesagt: Regressionsanalytische Befunde
können nicht exportiert werden. In Regressionsgleichungen aus Österreich
können nicht Kennwerte aus Deutschland eingesetzt werden. Die Ergebnisse
wären falsch, weil sinnlos. Für Details siehe die Tabellen mit den Modellen
inklusive des WLK.
221
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
222
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
223
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Fakten und Gedanken dieses Beitrages sollten genügend stark sein, um die Diskussionen in der hier skizzierten Art nicht mehr entstehen zu lassen. Die verbreitete Auflage ist nun einmal nicht in der Lage, Leserschaften zu prognostizieren
oder direkt berechnen zu lassen, weil das gesamte Bündel menschlichen Verhaltens und der Markt als Ganzes nicht genügend bzw. adäquat berücksichtigt
werden bzw. werden können. Mein Wunsch geht dahin, dass in Zukunft mehr
Grundlagenforschung unter Einbeziehung aller möglichen Variablen betrieben
wird. Die beiden Zitat-Sätze sollten als Reaktionsmuster auf MAs der Vergangenheit angehören.
Last not least: Über das Thema Auflage – Leser wurde in den letzten Jahrzehnten
viel geschrieben. Ich verweise vor allem auf das Manuskript von Michael Brown
(1998) „The Relationship of Readership to Circulation: an Annotated Bibliography“, ein exzellenter Beitrag mit vielen Quellenangaben. Weitere wichtige
Beiträge kamen aus der Feder von Hans-Erdmann Scheler, Klaus Peter Landgrebe, Jan Nordhoff, Erich Ockelmann, u.a.m.
Karl Steurer ist einer der Elder Statesmen in der
österreichischen Markt- und Mediaforschung. Er
wurde 1929 in Meran, Südtirol, geboren und wuchs
dort deutschsprachig auf. 1939 wurde er zwangsausgesiedelt und besuchte von 1942 bis 1951 das Humanistische Gymnasium in Innsbruck, 1951 Matura.
1951 bis 1955 Studium der Handelswissenschaften
an der Hochschule für Welthandel (heute:
Wirtschaftsuniversität) Wien.
Steurer lebt seit 1956 ständig in Wien. 1956 bis 1963
Methodischer Leiter des Österreichischen GallupInstituts. 1964 bis 1991 Leiter der Mediaplanung
und Marktforschung der Hager KG in Wien; Supervisor für die Ostagenturen der Firma (hauptsächlich
Ungarn), Schulungstätigkeiten im Bereich Mediaplanung, Konsulent in den ehemaligen Ostblockstaaten
für die Etablierung von Mediastudien, Grundlagenforschung, Schwerpunkte: Typologien und Implementierung qualitativer Daten in Mediastudien,
multivariate Statistikverfahren.
Außerdem 1968 bis 1979 Studium der Soziologie
an der Universität Wien; 1979 Sponsion zum Mag.
rer. soc. oec.. Aufgrund der Arbeit „Messung von
Arbeitszufriedenheit. Entwicklung eines standardisierten Meßinstrumentes“ 1980 bis 1999 gerichtlich
beeideter Sachverständiger für Werbung und Marktforschung beim Handelsgericht Wien. Seit 1992 ist
Steurer freiberuflich tätig.
224
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Zum besseren Verständnis: Forschung über den
Zusammenhang von Auflage und Reichweite
Auflagedaten widerspiegeln Kaufverhalten, während sich in Leserschaftsdaten
Kommunikationsverhalten ausdrückt. Das sind zwei verschiedene Paar Schuhe.
Die Bemühungen, einen Zusammenhang zwischen beiden herzustellen, laufen
stets dann hart gegen die Wand, wenn sie die verschiedenen Verhaltensweisen
bloß mathematisch miteinander verknüpfen. Das kann nicht funktionieren, weil
der Zusammenhang nicht mathematisch ist. Das hat indes die Forscher nicht
davon abgehalten, es immer wieder aufs Neue zu versuchen.
Eine Zeit lang galt die Zahl der Leser pro Exemplar (LpE), die aus der verbreiteten oder verkauften Auflage und der Gesamtzahl der Leser im Erscheinungsintervall ermittelt wird, als brauchbares Maß für die Reichweite eines Werbeträgers.
Doch das erwies sich als Irrtum.
In der Studie „An Examination of the Relationship Between Readers Estimates
and Circulation“ (1970) versuchten dann John Bermingham, R. Gage und P.
Mills, zwei Probleme zu klären:
• warum die Reichweite und die Auflage von spezifischen Publikationen sich
während einer bestimmten (meist kurzen) Zeit in entgegengesetzten Richtungen entwickeln
• und welcher Art die Beziehung zwischen Reichweite und Auflage ist.
Sie zeigten, dass bei sinkender Auflage von Zeitungen nur eine relativ
geringfügige Senkung der LpE stattfindet, während bei einer deutlichen Zunahme
der Auflage eine erhebliche Senkung der LpE zu erwarten ist.
In seinem 1970 veröffentlichten Artikel „A Consideration of the Possibility of
Predicting Readership from Circulation“ argumentierte Brian J. Pretty: Weil
es keine direkte Beziehung gibt zwischen Auflage und Leserschaft und die
zu Grunde liegende Beziehung höchst kompliziert ist, ist es vermutlich zwecklos, Untersuchungen zu diesen Beziehungen fortzusetzen. Deshalb sei es nicht
möglich, Leserschaften aus Auflagen zu prognostizieren.
In einem 1974 erschienenen Artikel über „Magazine Readers per Copy“ unterstrich Timothy Joyce, dass die Zahl der Leser pro Exemplar ein Durchschnittswert ist. Es ist möglich, dass z.B. 20 Prozent der Exemplare 50 Prozent der Leser
sammeln. Vor allem zwei Faktoren beeinflussen nach Joyce den LpE-Wert: der
225
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Lesebedarf und das Angebot von Exemplaren. Verfügbarkeit in öffentlicher Auslage erhöht den LpE-Wert, Promotion-Aktivitäten zur Gewinnung von Abonnenten dagegen vermindern ihn. Der LpE werde folglich nie ein stabiler Wert sein.
In Deutschland setzte man sich in den späten 1970er-Jahren verstärkt mit den
schwankenden LpE-Werten auseinander, nachdem sich gezeigt hatte, dass die
Schätzwerte zu den Abonnements- und Kaufzahlen zum Teil nicht mit der
geprüften Auflage übereinstimmen sowie Auflageentwicklung und Reichweitentrends mitunter erheblich abweichen und zu instabilen LpE-Werten führen.
Im Auftrag des Heinrich Bauer Verlags, Hamburg, führte die Schaefer-Marktforschung, Hamburg, 1978/79 eine sekundärstatistische Analyse durch, deren Ziel
es war, die Beziehung zwischen dem Käufer pro Exemplar (KpX) und anderen
Leserschaftsdaten in der Media-Analyse (MA) zu untersuchen.
Ein „Bericht über eine Studie des Zusammenhangs zwischen Auflage und LpAWerten“, den Erich Ockelmann für die Technische Kommission der AG.MA
1979 verfasste, konstatierte: „Und es ist als sicher anzunehmen, dass unsere bisherige Vorstellung über den Zusammenhang zwischen Reichweite und Auflage
zu korrigieren sein wird; einen einheitlichen Zusammenhang gibt es sicher nicht,
die Relation erscheint ,titelbezogen‘ anhand der Struktur der Leserschaft.“
Der Bericht kam zu der Schlussfolgerung, dass sich zwischen den von der MA
ermittelten LpA-Werten und den Auflagendaten ein enger Zusammenhang bei
den betrachteten Titeln nachweisen lässt. Im Gegensatz zu einer ersten Annahme
ist aber dieser Zusammenhang für alle Titel nicht mit Hilfe einer gleichen funktionellen Formel zu fassen. Die Titel zerfallen in drei Gruppen, zwischen denen
die ermittelten Zusammenhänge stark differieren. Die drei Gruppen unterscheiden sich in der Weise, dass die multiplikativen Faktoren zwischen den LpAWerten als unabhängiger Variable und der Auflage als Variable sich wie 1 : 2 : 4
verhalten.
Es zeigte sich die Tendenz, dass sowohl das Geschlecht wie die Altersstruktur
und die durchschnittliche Anzahl der Zeitschriftenkontakte sich gleichförmig
zwischen den Gruppen ändern, und zwar in dem Sinne, dass die Unterschätzung
der Auflage dann eintritt, wenn die Leserschaften Ältere, Frauen und Personen
mit unterdurchschnittlichen Zeitschriftenkontakten enthalten.
In einem Bericht über „Auflage und Reichweite oder Vergleich von Daten aus
IVW und MA“ verband Klaus Landgrebe das problematische Paar der häufigen
und der seltenen Leser mit dem der aufgeschlossenen und der zugeknöpften
Befragten, der Extravertierten und der Introvertierten. Er argumentierte, dass
beide Verhaltensdimensionen gemeinsam auftreten können und sich zwischen je
zwei Kombinationen daher Diskrepanzen ergeben werden.
226
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
In einer Trendanalyse zeigte Hans-Erdmann Scheler 1982, dass die LpX-Werte
(Leser pro Exemplar) z.B. für den Stern zwischen 1956 und 1981 stetig von 10,9
auf 5,0 absanken. Das generelle Bild war fast das gleiche. Folglich widerspiegele
die MA mit ihrem Erhebungsinstrument zumindest die großen Linien richtig.
1981 ging der südafrikanische Mediaforscher Wally Langschmidt in seinem
Aufsatz „A Possible Link Between Readership and Circulation“ erneut dem
Zusammenhang zwischen Auflage und Reichweite nach und entwickelte aus
den verschiedenen Merkmalen der Leserschaft eines Titels eine Berechnungsvorschrift zur Prognose der Auflage. Diese sieben Stufen umfassende Vorschrift
lieferte errechnete Werte, die mit den überprüften Auflagedaten eine Korrelation
von 0,92 zeigten. Die einzelnen Schritte der Vorschrift lauteten:
1. Stufe: Analyse der Leserschaften spezifischer Publikationen auf der Basis
der Angaben zur Lesehäufigkeit.
2. Stufe: Addieren aller Angaben zum Lesen in drei bis sechs der insgesamt
sechs Frequenzgruppen.
3. Stufe: Jede einzelne der insgesamt sechs Lesergruppen als Prozentsatz der
drei bis sechs Frequenzgruppen ausdrücken, wie sie in der 2. Stufe berechnet
wurden.
4. Stufe: Ablesen der theoretischen Wahrscheinlichkeit für den in der 3. Stufe
berechneten Prozentsatz.
5. Stufe: Berechnung der durchschnittlichen Leserzahl durch Multiplikation
der Leser in jeder Frequenzgruppe mit der mittleren Wahrscheinlichkeit in
der jeweiligen Gruppe. So ergibt sich für
„1 von 6“ die Wahrscheinlichkeit 0,1667
„2 von 6“ die Wahrscheinlichkeit 0,3333
„3 von 6“ die Wahrscheinlichkeit 0,5000 usw.
6. Stufe: Die theoretische Käuferperiode wird nun durch Multiplikation der
durchschnittlichen Leserzahl aus der 5. Stufe mit den Wiederholungswahrscheinlichkeiten ermittelt, die in der 5. Stufe verwendet wurden.
7. Stufe: Nun lassen sich die Leser während der „Käuferperiode“ aus der 6.
Stufe verwenden und mit den angegebenen Selbstkäufer-Prozentsätzen für
jede einzelne Publikation aus jeder Frequenzgruppe multiplizieren. Wenn also
z.B. 17 Prozent aus der „drei von sechs“-Gruppe angeben, sie hätten ihr letz227
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
tes Heft selbst gekauft, dann werden die Leser während der „Käuferperiode“
in der „drei von sechs“-Gruppe mit 0,17 multipliziert.
1985 schließlich entwickelte Michael Brown ein mathematisches Modell,
das die Beziehungen zwischen Auflage und Reichweite für unterschiedliche
Länder, Messmethoden, Publikationen und Zeiten wiedergibt. Brown untersuchte
zunächst 21 Tageszeitungen in Südafrika mithilfe von Verfahren der Regressionsanalyse und entwickelte eine Gleichung mit einem sehr hohen Korrelationskoeffizienten von r = 0,963. 93 Prozent der Varianz (= r2) in der Beziehung
„Leserschaft – Auflage“ werden also durch diese Gleichung erklärt. Für die 21
südafrikanischen Tageszeitungen lautete sie:
log10L = 0,913 + 0,909 log10A
r = 0,963
r2 = 0,93
Darin bedeutet:
L = Leserschaft in Tausend (laut Mediaanalyse) und
A = verkaufte Auflage in Tausend.
In die Rechnung für die Zeitschriften gingen 23 wöchentliche, vierzehntägliche
und monatliche Titel ein, mit Auflagen zwischen 30 000 und 481 000 Exemplaren
und Leserzahlen zwischen 95 000 und 2,9 Millionen. Der Korrelationskoeffizient
für Zeitschriften betrug r = 0,80.
Bei einer weiteren Überprüfung der Leser- und Auflagendaten einer Tageszeitung über neun Jahre hinweg (1975 bis 1983) ergab sich eine Korrelation von
0,96.
Eine weitere vergleichende Überprüfung in Belgien, Finnland, Frankreich,
Großbritannien, Kanada, den USA und Deutschland erbrachte ähnlich hohe Korrelationen. So wurden in Deutschland beispielsweise 20 Wochenblätter aus der
MA 83 analysiert (ausgeschlossen wurden Zeitschriften mit Lesezirkelverbreitung, weil bei Lesezirkel-Titeln die Auflage/Reichweite-Beziehung ganz anders
sein dürfte). Die Gleichung für Deutschland lautet:
log10L = 0,346 + 0,885 log10A
r = 0,935
r2 = 0,87
Mithilfe dieses Modells lassen sich also Leserschaftsmessungen, die als zu niedrig beanstandet werden, auf ihre Plausibilität prüfen. Ferner können sich neue
Titel a priori ein ungefähres Bild davon machen, mit welcher Leserschaft sie
228
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
rechnen können und wie die Leserschaft sich mit steigenden Auflagen entwikkeln wird.
Aus Browns Analyse ging auch hervor, dass die Beziehungen zwischen Auflage
und Reichweite nicht linear sind. Dies erklärte er folgendermaßen:
• Wenn die Auflage erhöht wird, steigt die Zahl der Gelegenheiten für Zweitleserschaften, und zwar proportional.
• Aber der Anteil dieser neuen Gelegenheiten, die tatsächlich zu einer Mitleserschaft führen, wird kleiner, und zwar aus zwei Gründen:
1. steigt die Wahrscheinlichkeit, dass Personen, die zufällig auf ein Exemplar stoßen, schon Leser sind. Das heißt, die Zahl derer, die das Heft noch
nicht gelesen haben, sinkt.
2. Eine zunehmende Auflage könnte bedeuten, dass die verbleibenden
Nicht-Leser ein immer geringeres Interesse an dieser Publikation mitbringen. Folglich ist es unvermeidlich, dass jedes hinzugefügte Exemplar
weniger Leser an sich zieht als das vorangehende.
In der Media-Analyse (MA) der Arbeitsgemeinschaft Media-Analyse (AG.MA)
wird bei der Prüfung der Ergebnisse anhand von ersten Ausdrucken der Tabellen „Generalübersicht Zeitschriften, Wochenzeitungen, Supplements“ zunächst
ausgezählt, bei wie vielen Leserschaften die Reichweiten gestiegen oder gefallen
sind.
Dann vergleicht das Prüfungsgremium die Entwicklung der Auflagen mit der der
Reichweiten. Sind die Tendenzen gleich laufend aufwärts oder abwärts gerichtet, ist anzunehmen, dass die zwischen zwei Media-Analysen zu beobachtenden
Reichweitenveränderungen auf Marktbewegungen zurückzuführen sind. Abwesenheit von Widerspruch zwischen Auflagen- und Reichweitenentwicklung ist
dennoch kein schlüssiges Beweismittel.
Erich Ockelmann hat am Material der Media-Analyse 73 bis 77 für die 59 Zeitschriften, die in allen fünf Analysen erhoben wurden, nachgewiesen, „dass die
gemessenen Werte der Reichweite keineswegs ,neben‘ den Auflagen stehen, sondern sehr eng mit diesen gekoppelt sind“.
Die übrig bleibenden Fälle, in denen Auflage und Reichweite sich nicht gleich
laufend, sondern entgegengesetzt entwickelt haben, werden einer besonders
eingehenden Prüfung unterzogen: Die Expertengruppe betrachtet nicht nur
das Ergebnis für die Gesamtbevölkerung, sondern auch in allen Aufgliede229
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
rungen nach demografischen Merkmalen, vergleicht die aus den Segmentationen vorliegenden Verteilungen auf die Gruppen der Lesewahrscheinlichkeit,
um Veränderungen in der Regelmäßigkeit des Lesens aufzuspüren, und geht
schließlich noch den externen Überschneidungen mit anderen Pressemedien
nach.
Findet man bei dieser systematischen Sichtung aller Veränderungen keine plausiblen Erklärungen, wird noch überprüft, mit welcher Sicherheit die Unterschiede
zwischen Ergebnissen aus beiden Analysen zufällig oder wesentlich sind.
Literatur:
Bermingham, John/Gaga, R./Mills, P.: An Examination of the Relationship Between Readers Estimates and Circulation. Thomson Awards for Advertising
Research 1970
Brown, Michael: Von der Auflage zur Reichweite. In: Vierteljahreshefte für
Media und Werbewirkung Heft 2/1986, S. 2–5
Goerlich, Bruce: The Relationship of Changes in Circulation to Changes in Total
Audience. Paper Presented at the Worldwide Readership Research Symposium
in San Francisco 1993
Gugel, Craig: The Case for Unadjusted Readership Data. In: Journal of Advertising Research September/October 1993, S. 2 ff.
Landgrebe, Klaus Peter: Auflage und Reichweite, oder Vergleich von Daten aus
IVW und MA. Memorandum. Gröbenzell 1982
Langschmidt, Wally: An Open Letter to My Fellow R.P.C. Sufferers. Johannesburg 1984
Langschmidt, Wally: The Effects of Age of Issue and Origin of Copy on Readership Results. Paper Presented at the Worldwide Readership Research Symposium. Montreal 1983.
Langschmidt, Wally: A Possible Link Between Readership and Circulation.
Paper Presented at the Worldwide Readership Symposium New Orleans 1981
Lindberg, I.: Circulation and Readership: Trend Analysis. Paper Presented at the
Readership Research Symposium. New Orleans 1981
230
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Noordhoff, Jan: Auflage und Reichweite. Die Problematik der Leser pro Exemplar. In: Vierteljahreshefte für Media und Werbewirkung Heft 3/1985, S. 27–32
Ockelmann, Erich: Bericht über eine Studie des Zusammenhangs zwischen Auflage und LpA-Werten. Wiesbaden, 24.7.1979
Pretty, B. J.: A Consideration of the Possibility of Predicting Readership from
Circulation. An Entry for the Thomson Gold Medal Award 1970
Scheler, Hans-Erdmann: Reichweiten und Auflagen von Publikumszeitschriften
in Langzeitbetrachtungen. In: Interview und Analyse, Nr. 1/1982, S. 4–8
Scheler, Hans-Erdmann: Auf der Suche nach Faktoren, die die Reichweiten der
Publikumszeitschriften steuern. In: Interview und Analyse 3, 1982, S. 24 ff.
Wenzel, Winfried: Auflage ist nicht alles, aber ohne Auflage ist alles nichts. In:
Media Spectrum Heft 5/1994, S. 19 ff.
Weser, Adrian: Auflage könnte Zusatzwährung werden. In: Horizont, 12. Jg., Nr.
39, 1995, S. 65
231
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Revolution im Gedächtnis
Von Wolfgang J. Koschnick
Die Werbewirkungsforschung steht möglicherweise vor einem spektakulären
Quantensprung. Er könnte die Kenntnisse darüber, wie Werbung nun wirklich
wirkt, revolutionieren. Bisher ging alle Werbeforschung stets von der Vorstellung
aus, dass die Adressaten alle Werbung mehr oder minder bewusst verarbeiten, sie
im Kopf oder im Herzen verarbeiten und sich dann entsprechend verhalten.
Doch Alltagserfahrung, Plausibilitätserwägungen und auch Forschungsergebnisse führten zu einem allgemeinen Unbehagen über diese gar zu einfachen Vorstellungen darüber, dass die Konsumenten Werbung lernen sollten – ganz so wie
sie soziales Verhalten durch Beobachtung ihrer Umwelt lernen. Soziale Rollenmuster und Alltagsverhalten mögen ja in einer Vielzahl von Beobachtungs- und
Aneignungsprozessen gelernt werden. Aber warum sollte der Prozess, auf Grund
dessen Werbung wirkt, ähnlich vonstatten gehen?
Ein Mensch eignet sich ja Rollenmuster in einem langwierigen Prozess durch
Beobachtung erfolgreichen Bewältigungs- und Problemlösungsverhaltens an.
Doch das ist etwas grundsätzlich anderes als die Akzeptanz eines Werbespots,
der den regen Gebrauch einer bestimmten Essigmarke oder eines bestimmten
Zahnprothesenreinigers empfiehlt.
Irgendetwas an den allgemeinen Lerntheorien der Werbewirkung ist grundverkehrt. Werbung wird weder ausschließlich bewusst noch unbewusst gelernt. Da
spielen andere Faktoren eine entscheidende Rolle. Dieses Gefühl hatten Kritiker
und Beobachter der klassischen Werbeforschung schon immer. Es gab aber bis
vor kurzem nichts Besseres. Und deshalb waren die Lerntheorien der Werbewirkungsforschung allgemein akzeptiert – wenn auch mit mulmigen Gefühlen.
Schon der Denkansatz ist abwegig: Wer etwas lernt, setzt sich hin und macht
eine bewusste Lernanstrengung. Egal wie widerwillig: Lernen kann man nur,
wenn man das bewusst tut. Selbst wenn man keine Lust dazu hat, muss man
sich wenigstens Mühe geben. Und bei der Werbung ist es genau umgekehrt: Werbung wirkt niemals, weil die Leute sie sehen wollen, sondern immer nur, obwohl
sie sie doch gar nicht sehen wollen. Die ganze Kunstfertigkeit besteht ja gerade
darin, die Leute notfalls auch gegen ihren eigenen Willen zum Hinschauen zu
bringen.
Die Lerntheorie suggeriert geradezu den Eindruck, dass Beeinflussung durch
Werbung in Werbeträgern nach dem klassischen Reiz-Reaktions-Schema funktioniert: Der Konsument lernt die Botschaft, wägt die Argumente, um dann zu
233
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
seiner Kaufentscheidung zu kommen. Doch wie soll jemand Argumente lernen
und abwägen, die ihn gar nicht interessieren? Schlimmer noch, die ihm völlig
schnurz und piepe sind?
Neuerdings haben sich die Forscher einige Krücken gebaut. Natürlich gibt es
auch Formen des inzidentellen, des nicht bewussten Lernens. Danach schnappen
also die Konsumenten Werbung eher beiläufig auf, oder sie erkennen die in Bildern gewissermaßen versteckte Botschaft. Aber auch das hilft im Grunde genommen nicht weiter.
Doch dann machten die Hirnforscher eine sensationelle Erfahrung, mit der sie
zunächst nicht so recht etwas anfangen konnten. In den siebziger Jahren entdeckten sie, dass Patienten mit vollständiger Amnesie als Folge schwerer Kopfverletzungen im Stande waren, neue Fertigkeiten zu erlernen, ohne sich daran zu
erinnern. Zeigte man den Patienten beispielsweise ein Puzzle mit der Bitte, es
zu lösen, taten sie es. Tags darauf konnten sie sich zwar überhaupt nicht mehr
daran erinnern, lösten das Problem aber schneller als am Vortag. Am dritten Tag
beendigten sie die Aufgabe noch schneller, erneut, ohne sie zu erkennen.
Diese Studien der Hirnforscher zeigten, dass Amnesiepatienten ohne bewusste
Erinnerung irgendetwas speichern, das ihr Verhalten nachhaltig beeinflusst. Es
ist ratsam, sich in diesem Zusammenhang jede anzügliche Bemerkung darüber
zu verkneifen, dass die Befunde aus dem Verhalten von Hirnverletzten nicht
unbedingt eins zu eins auf das Verhalten von Werberezipienten zu übertragen
sind.
Das entspricht ja auch der praktischen Forschungserfahrung von Markt- und
Mediaforschern ebenso wie der von Marketing- und Werbepraktikern: Es gibt
Kampagnen, in deren Folge starke Wirkungen vermutet werden dürfen. Es sind
nicht zwangsläufig und immer diejenigen Kampagnen, in denen die traditionellen Wirkungsindikatoren wie Markenerinnerung, Werbeerinnerung etc. etc. hohe
Werte erzielen. Es gibt auch starke Wirkungen ohne günstige Indikatoren, und es
gibt starke Wirkungen mit günstigen Indikatoren. Es ist so ähnlich wie bei den
Amnesiepatienten: Da ist irgendetwas, was wirkt. Doch was könnte das sein?
Die implizite Erinnerung wurde schließlich auch bei gesunden Menschen als
ein Faktor erkannt, der alle möglichen Verhaltensweisen beeinflusst, auch die
Beurteilung der Lautstärke gesprochener Worte, die Sympathie von Images, die
Berühmtheit von Namen und die Erinnerungswürdigkeit von Anzeigen.
Werbungtreibende stützen sich seit langem auf verschiedene Faktoren wie
ansteckende Melodien, Humor, Identifikation, um ihren Werbemitteln einen starken Recall oder eine gute Wiedererkennung zu sichern. All das ist in der Psy234
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
chologie des Gedächtnisses wohl bekannt. Der amerikanisch-österreichische
Nobelpreisträger Eric Kandel hat in den neunziger Jahren die molekularen
Mechanismen des Gedächtnisses entschlüsselt. Sein erstes großes Verdienst für
die noch jungen Neurowissenschaften bestand darin, an möglichst einfachen Versuchsobjekten die Gedächtnisvorgänge zwischen den Nervenzellen zu studieren.
So entschlüsselte er, wie Sinnesreize im Netzwerk der Neuronen gespeichert
werden. Für die Aufdeckung der molekularen Vorgänge, die dem Lernen und
Erinnern zu Grunde liegen, erhielt er 2000 den Medizin-Nobelpreis.
Sicher ist laut Kandel, dass Erfahrungen und Erinnerungen lebenslang interagieren. Das lässt sich auch physiologisch erklären: Alle bewusst vom Hirn aufgenommenen Daten werden zunächst in einer Hirnregion namens Hippocampus
verarbeitet. Von dort werden sie in die Großhirnrinde geleitet und gespeichert
– und zwar genau an der Stelle, an der ursprünglich der wahrgenommene Reiz
verarbeitet wurde. Im Gehirn gibt es also einen Ort, der sowohl dafür verantwortlich ist, ein bekanntes Gesicht zu erkennen, als auch dafür, ein noch unbekanntes
Gesicht zu speichern. Wahrnehmen und Speichern finden am selben Ort statt.
Und Erfahrung und Erinnerung beeinflussen sich aus diesem Grund auch wechselseitig.
Ganz so wie Sigmund Freud das gesehen hat, bestätigt die moderne
Gedächtnisforschung, dass es viele unbewusste Vorgänge im Hirn gibt. Das ist
inzwischen gesichertes Wissen: Vieles von dem, was ein Mensch weiß, ist ihm
gar nicht bewusst. Allerdings hat sein unbewusstes Gedächtnis nichts mit seinen
sexuellen Trieben zu tun. Die Inhalte des unbewussten – oder, wie die Hirnforscher sagen, impliziten – Gedächtnisses sind viel banaler. Wenn man lernt,
Auto zu fahren oder Tennis zu spielen, dann macht man die Bewegungen, ohne
darüber nachzudenken, den Fuß nach vorn zu drücken oder den Arm nach hinten
zu schwingen. Dies funktioniert automatisch und involviert nicht den Hippocampus, der für das Abspeichern bewusster oder expliziter Erinnerungen zuständig
ist.
Doch das gilt keineswegs nur für motorische Fähigkeiten. Auch die menschliche Wahrnehmung wird zu einem großen Teil vom impliziten Gedächtnis gespeichert. Objekte werden automatisch erkannt. Besonders deutlich lässt sich das
bei Amnesiepatienten studieren, also Menschen mit einem Ausfall des expliziten
Gedächtnisses.
235
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Wie das Gedächtnis nach dem heutigen Stand der Forschung funktioniert
Zunächst verarbeitet die Großhirnrinde alle Sinnesreize. Entscheidend ist:
An diese Wahrnehmung existiert eine Erinnerung auch dann, wenn sie
dem Erinnernden nicht bewusst ist. Die Forschung spricht vom impliziten
Gedächtnis.
Das implizite Gedächtnis hat zwei Bestandteile: (1) Prozedurale Informationen: wie z. B. Schwimmen, Fahrradfahren, Treppensteigen; (2) Priming:
sämtliche Informationen der unbewussten Wahrnehmung, die also nicht
das Bewusstsein erreicht haben. Mit ihrer Hilfe lassen sich beispielsweise
flüchtig gelesene Worte schneller durch „Raten“ lesen.
Um überhaupt ins Bewusstsein zu dringen, müssen die Sinnesreize an
den Hippocampus weitergeleitet werden. Er entscheidet darüber, welche
Informationen an die Großhirnrinde zurückgesendet werden. Werden sie
zurückgesendet, so bilden sie den Inhalt des expliziten Gedächtnisses.
Das explizite Gedächtnis wiederum besteht aus zwei Teilen: (1) das episodische Gedächtnis speichert alle persönlichen Erlebnisse und die zugehörigen
Emotionen; (2) das semantische Gedächtnis speichert Fakten, Informationen, Kenntnisse.
Da gab es einen Patienten, der mit neun Jahren einen Fahrradunfall hatte. Von den
Verletzungen bekam er epileptische Anfälle. Die nahmen derartig zu, dass ihm
ein Teil seines Schläfenlappens und seines Hippocampus entnommen werden
musste. Danach hörten die Anfälle zwar auf, aber der Patient litt seither an einem
Gedächtnisausfall: Er erinnerte sich zwar noch an alle seine Erlebnisse vor der
Operation. Auch für sehr kurze Zeit konnte er Dinge behalten. Aber er konnte
keine Kurzzeit-Informationen mehr ins Langzeitgedächtnis befördern. Deshalb
vergaß er direkt nach dem Essen, dass er soeben gegessen hat, und wollte sofort
weiteressen. Oder: Auf Kindheitsfotos erkannte er sich, im Spiegel dagegen
nicht.
Das Interessante ist, dass sich der Patient zwar nicht mehr an Personen, Orte und
Objekte, die er wahrgenommen hatte, zu erinnern glaubte. Dennoch funktioniert
sein implizites Langzeitgedächtnis weiter. Das zeigten sein Verhalten und seine
Gefühlsreaktionen ganz eindeutig. Es ließ sich auch experimentell überprüfen:
Wenn er zum Beispiel ein Wort las und es zwei Stunden später wieder mit ein
paar fehlenden Buchstaben vorgeführt bekam, konnte er dieses Wort wesentlich
schneller entziffern als eines, das er vorher nicht gesehen hatte, obwohl er in
jedem Fall überzeugt war, es noch nie zuvor gesehen zu haben.
Man kann daraus folgern, dass der Mensch sehr vieles automatisch und unbewusst
speichert und dass dieser Mechanismus offensichtlich im Gehirn unabhängig
236
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
vom Vorgang der bewussten Erinnerung abläuft. Das ist die entscheidende und
weltbewegende Erkenntnis für die Werbewirkungsforschung.
Darüber, welche Rolle diese unbewussten Erinnerungen spielen, gibt es zwei
Ansichten:
(1) Sigmund Freud behauptete, es würden alle Ereignisse abgespeichert, die
der ersten Lebensjahre jedoch im Unterbewusstsein; deshalb komme man
an diese vergrabenen Erinnerungen nur mit speziellen psychoanalytischen
Methoden heran.
(2) Die meisten Biologen hingegen glauben, dass das Gehirn eines Säuglings
noch nicht so weit sei, dass es alles abspeichern kann.
Die modernen Hirnforscher vermuten also, dass es im menschlichen Hirn noch
Erinnerungen an das erste Lebensjahr, womöglich sogar an die Zeit vor der
Geburt gibt – nur dass der Mensch nicht an sie herankommt. Dabei darf man sich
allerdings nicht die uns bekannte Form des episodischen Gedächtnisses vorstellen, also die Fähigkeit, Vorgänge in ihrer historischen Kontinuität zu erkennen.
Das können Kleinkinder sicher noch nicht.
Die Neurowissenschaften haben übrigens festgestellt, dass die für
Gedächtnismechanismen zuständigen Proteine sogar schon in Würmern und in
Hefebakterien zu finden sind. Da zeige sich, meinen die Hirnforscher, dass
die Evolution keine genetische Information wegwirft. Evolution verwendet
Moleküle, die sich einmal als nützlich erwiesen haben, wieder und wieder. Sie
formt die einzelnen Teile nur um.
Der Schlüssel zur Gedächtnisfähigkeit besteht darin, dass die Verbindungen der
Nervenzellen, die Synapsen, plastisch sind. Sie können sich unter dem Einfluss
von Erfahrung verändern. Das bedeutet: Erfahrung verändert das menschliche
Gehirn. Und das wiederum führt zu der Feststellung, dass jedes Individuum
ein anatomisch gesehen einzigartiges Gehirn hat, weil es von Erfahrungen und
Erlebnissen geformt wurde.
Es gibt ein Molekül, das die Weiterleitung der Information vom Kurz- ins
Langzeitgedächtnis blockiert. Nur wenn die Wirkung dieses Moleküls unterdrückt
wird, kann ein neuer Inhalt dauerhaft den Weg ins Gedächtnis finden.
Untersuchungen von Tim Perfect und Sue Heatherley von der britischen Bristol
University haben deutlich gemacht, dass diese Elemente nicht notwendigerweise
zu einer guten impliziten Erinnerung führen, ja dass sogar manche Faktoren, die
die bewusste Erinnerung stärken, der impliziten Erinnerung im Weg stehen.
237
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Wenn beispielsweise Versuchspersonen ihre Antwort auf eine Frage selbst ausarbeiten, dann erinnern sie sich später im Recall- oder Wiedererkennungstest
besser daran, als wenn sie die Antwort einfach ablesen. Doch wenn die implizite
Erinnerung gemessen wird, dann schneiden jene, die die Antwort einfach ablesen, oft besser ab, als die, die sie selbst erarbeiten.
Im Übrigen hat sich herausgestellt, dass die implizite Erinnerung sehr empfindlich auf Wahrnehmungsmerkmale wie Farben, Schriftarten, Größe etc. reagiert. Drei Aspekte des impliziten Gedächtnisses sind für Werbungtreibende von
Bedeutung:
(1) Das implizite Gedächtnis betrifft eher das Verhalten der Leute als das,
woran sie sich erinnern können;
(2) es ist völlig unabhängig von der bewussten Erinnerung;
(3) emotionale Reaktionen sind eng mit dem impliziten Gedächtnis verknüpft.
Es gibt sichere Anhaltspunkte dafür, dass die Empfindungen der Leute
gegenüber Wörtern, Bildern oder Werbemitteln auf emotionaler Ebene
unabhängig von einer Erinnerung im konventionellen Sinne existieren:
Gefühle können vollständig auf impliziter Erinnerung basieren.
Daraus lässt sich schließen, dass die Verwendung von Erinnerung (Recall)
und Wiedererkennung (Recognition) als Maßstab zur Bestimmung des wahrscheinlichen Werbeerfolgs in der Werbewirkungsforschung nicht sehr Erfolg
versprechend ist. Die Forschung zur impliziten Erinnerung erinnert stark an
diese Untersuchungen zur unterschwelligen Werbung. Die Leute waren bei der
Präsentation von Bildern auch nicht in der Lage, sie besser zu identifizieren.
Doch wenn sie aufgefordert wurden, zu entscheiden, welche Bilder attraktiver
waren, wählten sie immer jene, die ihnen bereits unterschwellig präsentiert
worden waren.
Dasselbe Resultat zeigte sich in Tests, die Perfect und Heatherley im Auftrag
der Financial Times mit Printanzeigen durchführten, die völlig normal gesehen,
anschließend aber vergessen worden waren. Beim Test dienten Seiten der Financiail Times als Testmaterial. Dabei stellte sich heraus, dass Anzeigen die Gefühle
der Leute gegenüber dem inserierten Material beeinflussen können, ohne dass sie
es als etwas bereits einmal Gesehenes erkennen.
Das Experiment verlief so, dass die Versuchspersonen, die meinten, an einer
Studie über Layout und Design teilzunehmen, gebeten wurden, Seiten der Financial Times für 45 Sekunden zu überfliegen und Kommentare dazu abzugeben.
Tatsächlich jedoch handelte es sich um einen Erinnerungstest für das Werbema238
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
terial auf den Zeitungsseiten, von denen einige allerdings überhaupt keine Anzeigen enthielten.
Die Testpersonen wurden gebeten, von jeder Seite möglichst viel Information
aufzunehmen; außerdem hatten sie pro Seite eine Frage zu beantworten (z.B.
„Welcher Name stand in der Headline?“). Am nächsten Tag wurden sie in einer
zweiten Sitzung in zwei Vergleichsgruppen aufgefordert, eine Reihe von Anzeigen, Logos und in Standardformat gedruckte Firmennamen zu bewerten. Unter
diesen Elementen befanden sich auch solche, die sie zuvor als Anzeige in der
Financial Times gesehen hatten. Sie wurden den beiden Versuchsgruppen zu
gleichen Teilen untergeschoben.
Nachdem sie jedes Element beurteilt hatten, wurden sie darüber informiert, dass
darunter einige der Anzeigen aus der Financial Times vom Vortag versteckt
waren, und gebeten, diese zu identifizieren. Die Wiedererkennung lag für Printanzeigen nach 24 Stunden bei rund 25 Prozent, während sie für die Logos
und Firmennamen bei null lag. Doch trotz der geringen Wiedererkennungsrate
tendierten die Versuchspersonen zur Bevorzugung der Anzeigen und Logos,
die sie vorher schon gesehen hatten. Sie empfanden speziell die Anzeigen
als sympathischer, erinnerungswürdiger, unverwechselbarer und die Logos als
erinnerungswürdiger sowie unverwechselbarer.
Werbemittel haben also offensichtlich auch dann Auswirkungen auf das Verhalten, besonders auf emotionale Urteile, wenn sie nicht wieder erkannt werden.
Werbemittel, die gesehen, aber wieder vergessen werden, werden später trotzdem als sympathischer, erinnerungswürdiger und unverwechselbarer empfunden. Die Wahrscheinlichkeit einer emotionalen Präferenz ist unabhängig davon,
ob die Anzeige wieder erkannt wird oder nicht.
Daraus schlussfolgerten Perfect und Heatherley: „Messungen der Werbewirksamkeit, die sich einzig auf das bewusste Erinnerungsvermögen stützen, können
die Effektivität von Werbemitteln oder Kampagnen unterschätzen, denn es kann
sein, dass eine Anzeige zwar nicht erinnert wird, aber unbewusste Auswirkungen
haben kann.
Die implizite Erinnerung ist für andere Faktoren empfänglich als das explizite
Gedächtnis. Wer die unbewussten Veränderungen in der Einstellung seiner Zielgruppe lenken und bestärken will, muss also auch jene Elemente in seiner Werbung berücksichtigen, die eine gute implizite Erinnerung ermöglichen, statt
ausschließlich für eine bewusste Erinnerung seiner Anzeige zu sorgen. Dazu
gehört der gezielte Einsatz von Farbe, Schrifttyp und Größe etc.“ (Quelle: Perfect, Tim/Heatherley, Sue: Implict Memory in Print Ads. In: Admap January
1996, S. 41 ff.)
239
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de
Welche Implikationen die Unterscheidung zwischen implizitem und explizitem
Gedächtnis für die Werbewirkungsforschung hat, lässt sich noch gar nicht absehen. Die Forschung steht erst am Anfang. Aber eines ist ganz gewiss: Da wird
kein Stein auf dem anderen bleiben…
240
FOCUS-Jahrbuch 2004, (c) FOCUS Magazin Verlag GmbH, www.medialine.de