Grooming - Youth Protection Roundtable YPRT
Transcription
Grooming - Youth Protection Roundtable YPRT
YPRT Toolkit Ein Werkzeugkoffer für den Jugendmedienschutz Inhaltsverzeichnis Einführung in das YPRT Toolkit...............................................................................................3 Vorwort...................................................................................................................................4 A ·Risiken für Kinder und Jugendliche bei der Nutzung von Online-Dienstleistungen .......................................................................................7 A 1 · Mit Online-Inhalten verbundene Risiken........................................................................9 A 2 · Mit Online-Kontakten verbundene Risiken.................................................................. 12 B ·Überblick über verfügbare Technologien zur Unterstützung des Jugendschutzes......................................................................................................15 B 1 · Filter-Software.............................................................................................................. 17 B 2 · Überwachungs- und Kontrollmechanismen.................................................................20 B 3 · Altersverifikation...........................................................................................................21 B 4 · Andere technische Instrumente...................................................................................23 2 C · Verbesserung des Jugendschutzes im Internet..................................................25 C 1 · Verbesserung unterstützender Technologien und Infrastrukturen...............................26 C 2 · Verbesserung der Nutzbarkeit von Filtersoftware.......................................................27 C 3 · Verbesserung von Internetanwendungen – technische Grundlagen und Implementierung von Zusatzmodulen..............................................................................29 C 4 · Vereinbarung von Richtlinien durch die Anbieter und Betreiber von Internetdiensten und ‑anwendungen.........................................................................31 C 5 · Medienkompetenz.......................................................................................................32 C 6 · Aufklärung und Bewusstseinsbildung..........................................................................34 C 7 · Forschung....................................................................................................................35 C 8 · Rechtliche Regelungen................................................................................................35 D · Ressourcen........................................................................................................................36 E · Bestandsaufnahme Selbstregulierung....................................................................38 E 1 · Organisationen.............................................................................................................38 E 2 · Instrumente ................................................................................................................. 41 F · Bestandsaufnahme rechtlicher Regelungen.........................................................45 Einführung in das YPRT Toolkit Dieses Toolkit wurde vom Youth Protection Roundtable im Rahmen des Safer Internet Programms der Europäischen Kommission entwickelt. Der Youth Protection Roundtable wurde im Jahr 2006 ins Leben gerufen, um technische Experten1 und Kinderwohlfahrtsorganisationen miteinander ins Gespräch zu bringen. Ziel war es, den optimalen Mix effektiver, technik-gestützter Strategien einerseits und pädagogischer Strategien andererseits zu erarbeiten, damit Jugendliche – und bei Minderjährigen die verantwortlichen Erwachsenen – zu einer sicheren Nutzung des Internet befähigt werden. 32 Partnerorganisationen aus 13 europäischen Ländern arbeiteten 30 Monate lang zusammen und trafen sich zu vier Konferenzen. Im Rahmen des so genannten Young Roundtable wirkten außerdem Jugendliche selbst an der Entwicklung des YPRT Toolkits mit. Adopt, Adapt, Improve – Auf der Grundlage der Projektergebnisse und der Einblicke in das OnlineVerhalten von Jugendlichen entwickelte der Youth Protection Roundtable diesen Katalog von Ideen und Vorschlägen zur Verbesserung des Jugendmedienschutzes im Internet. Annehmen, Anpassen, Verbessern Diesen Slogan, den der Duke of Windsor prägte, als er im Jahr 1927 die Idee eines Runden Tisches in der Britischen Clubtradition einführte, hat der YPRT aufgegriffen. Junge Menschen unterschiedlicher Profession kamen auf Einladung des Duke zusammen, um etablierte Handlungsweisen im Licht neuer Entwicklungen gemeinsam zu diskutieren und so die jeweiligen Ansichten besser zu verstehen. Auch der Youth Protection Roundtable hat in den vergangenen zweieinhalb Jahren einen solchen Diskussionsprozess zwischen den Vertretern der verschiedenen am Jugendmedienschutz betei ligten Institutionen und Unternehmen initiiert. Jeder, der nun die Ideen und Empfehlungen dieses Toolkits annimmt, an seine eigenen Angebote anpasst und versucht diese zu ver bessern, ist eingeladen, künftig am virtuellen Youth Protection Roundtable platzzunehmen und seine Erfahrungen und Perspektiven mit anderen unter www.yprt.eu zu teilen. Herbert Kubicek, Wissenschaftlicher Direktor der Stiftung Digitale Chancen 1-D as Toolkit wurde durch die Stiftung Digitale Chancen aus dem Englischen übersetzt. Im Interesse einer gendergerechten Sprache werden wo möglich geschlechtsneutrale Begriffe verwendet, in einigen Fällen wird aus Gründen der Textökonomie der maskulinen Form der Vorzug gegeben. 3 Vorwort Die Teilhabe an der Informationsgesellschaft ist für Menschen aller Altersgruppen von großer Bedeutung. Das Internet bietet umfangreiche Möglichkeiten für alle Nutzerinnen und Nutzer. Es hat positive Auswirkungen auf die Bildung, die Arbeitswelt und das wirtschaft liche Wachstum. Insbesondere Kinder und Jugendliche kennen seine Anwendungen sehr gut und können von der Internetnutzung profitieren, aber sie sind auch besonders verletzlich. Die positive Entwicklung durch das Internet wird begleitet von Risiken und Bedrohungen, die den Gefahren der realen Umwelt oft ähnlich sind. Der sinnvolle Einsatz von technischen Instrumenten kann dazu beitragen, diesem Problem zu begegnen. Aber die Effektivität technischer Werkzeuge zur Bekämpfung von Risiken wird durch ihre komplizierte Handhabbarkeit einerseits und die rasante technische Entwicklung im Internet anderseits beeinträchtigt. Es ist daher ist nicht zu empfehlen, sich allein auf die Technik zu verlassen. Kinder und Jugendliche müssen stark gemacht werden für einen sicheren Umgang mit dem Internet und sie müssen lernen, Risiken zu vermeiden oder zu beherrschen. Technik kann dabei eine nützliche und unterstützende Rolle spielen, insbesondere wenn es um jüngere Kinder geht. Deshalb hat der Youth Protection Roundtable mit Bezug auf das Vereinte Nationen Übereinkommen über die Rechte des Kindes von 1989, rt. 10 der Europ. Menschenrechtskonvention, der das Recht auf freie Meinungs A äußerung und die Freiheit, Informationen und Ideen ohne behördliche Eingriffe und ohne Rücksicht auf Staatsgrenzen zu empfangen und weiterzugeben, garantiert, ie Erklärung des Ministerkomitees über die Achtung der Menschenrechte und der d Rechtsstaatlichkeit in der Informationsgesellschaft, die am 13. Mai 2005 vom Ministerkomitee des Europarats beschlossen wurde, wonach die Mitgliedstaaten juristische und praktische Maßnahmen erhalten und verbessern sollen, um private oder staatliche Zensur zu verhindern, ie Erklärung zur Kommunikationsfreiheit im Internet des Ministerkomitees vom d 28. Mai 2003, ie Empfehlung Rec(2007)11 des Ministerkomitees an die Mitgliedstaaten zur Förded rung der Meinungs- und Informationsfreiheit in den neuen Informations- und Kommunikationsmedien, 4 ie Empfehlung Rec(2007)16 des Ministerkomitees an die Mitgliedstaaten über d Maßnahmen zur Förderung der Internet-Grundversorgung, ie Empfehlung Rec(2008)6 des Ministerkomitees an die Mitgliedstaaten zu Maß d nahmen zur Wahrung der Meinungs- und Informationsfreiheit in Bezug auf Internet filter (vom Ministerkomitee beschlossen am 26. März 2008 auf der 1022. Sitzung der Ministervertreter), einen Katalog von Ideen und Vorschlägen erarbeitet technische Entwicklungen unter Berücksichtigung pädagogischer Aspekte für und f ür die Anwendung von Filtertechnik und pädagogischen Maßnahmen im öffentlichen und privaten Bereich. Das YPRT-Toolkit ist ein Katalog nicht bindender Empfehlungen für die Verbesserung des Jugendmedienschutzes im Internet. Das vom YPRT entwickelte Toolkit unterstützt die Akteure, die durch die Bereitstellung von Dienstleistungen und Inhalten im Internet, die Entwicklung von Internet-Hardware und -Software, die Beratung von Eltern, die Erziehung von Kindern und Jugendlichen, die Ausbildung von Multiplikatoren und durch politische Entscheidungen einen Beitrag zum Jugendmedienschutz leisten können. Massnahmen Für Den Jugendschutz 3,5 3 2,5 2 1,5 Kinder (bis 13 Jahre) Jugendliche (14-17 Jahre) *Ø Prioritätspunkte 1-6 (höchste Priorität 6) 1 0,5* 0 nz lle) lizei ers iten men pete Nutz e-Kontro hten Se ie Po ram des nkom c il rch d ilterprog f r e ie u r g e d d e o n e g ech er L nF rnet er M lters mR ielle n od Inte zu a ng d des spez e auf de bei sitze nur deru g it r g n ö n n=126 m r u F a a a r g ch e h (d w r Zu r wa durc ser v soft olle Übe nkte der ontr roxy B. Filter ä K P r in h . K e esc z. B der rlich ie z. Eing wie Elte nw kung YPRT Survey On Matters Of Safer Internet And Youth Protection Stär ngen ösunge u s ö © Youth Protection Roundtable - Stiftung Digitale Chancen L are-L ftwarew d r o S Ha 5 Die Vorschläge für technische Entwicklungen im Hinblick auf pädagogische Maßnahmen informieren Provider und Entwickler über die Risiken, mit denen Kinder und Jugend liche bei der Nutzung von Online-Dienstleistungen konfrontiert sind (Kapitel A), eben einen Überblick über die zurzeit vorhandenen Technologien zur Unterstützung g des Jugendschutzes (Kapitel B), eschreiben, wie man diese Technologien effizient anwendet (z. B. dass Filter auf b den Endnutzergeräten einerseits effektiv und andererseits für Erziehungsverantwort liche leicht handhabbar sein sollten) (Kapitel C1-C4), eschreiben die allgemeinen Bedingungen des Jugendschutzes (d. h. geben Hinweise b auf nationale und internationale Rahmenwerke und Gesetze). Damit sollen Techniker in die Lage versetzt werden abzuschätzen, welche Auswirkungen neu entwickelte Technologien auf Kinder und Jugendliche haben können. Die Vorschläge für den Einsatz von Filtertechnologien und pädagogischen Maßnahmen im öffentlichen und privaten Bereich informieren Multiplikatoren (Pädagogen und Erziehungsverantwortliche) über die Beziehung zwischen bestimmten Online-Anwendungen und -Produkten und den damit verbundenen Risiken (Kapitel A), eschreiben geeignete unterstützenb de Technologien, z eigen auf, wo zusätzliche pädagogische Maßnahmen erforderlich sind, um das Potential der Technologien für den Jugendschutz zu erhöhen (Kapitel C2-C7). Der Youth Protection Roundtable hat großartige Arbeit geleistet, indem er einen bereichsübergreifen den Dialog angestoßen hat zwischen technischen Spezialisten, Experten der Kinderwohlfahrtspflege und Managern von Safer-Internet-Projekten. Das Ergebnis der gemeinsamen Arbeit ist besonders wertvoll für Menschen, die mit Kindern und Jugend lichen arbeiten und sie im Umgang mit dem Internet stärken möchten. Das Toolkit ist ein geeignetes Instrument für den Einsatz in der täglichen Praxis. Ing. Pavel Vichtera, Saferinternet CZ Projektkoordinator 6 A·R isiken für Kinder und Jugendliche bei der Nutzung von Online-Dienstleistungen Die Mitgliedsorganisationen des Youth Protection Roundtable haben verschiedene Risiken und Bedrohungen als relevant für den Jugendmedienschutz im Internet identifiziert und in einer Matrix geordnet nach vier Kategorien dargestellt. Nicht alle in der YPRT-Matrix genannten Risiken sind für alle Altersgruppen gleichermaßen relevant, sie müssen aber dennoch alle in geeigneter Weise angesprochen und thematisiert werden. Die Risiken wurden zunächst differenziert in solche, die sich bei der Nutzung von OnlineInhalten ergeben können, und andere, die mit Online-Kontakten verbunden sind. In beiden Bereichen sind einige Risiken die Folge des eigenen Verhaltens der Nutzer, während andere Risiken aus dem Verhalten anderer Nutzer resultieren. Wo die Risiken angesiedelt sind, hängt davon ab, ob man die Perspektive des Konsumenten von Inhalten oder die des Produzenten von Inhalten einnimmt, dies gilt insbesondere für so genannte nutzergenerierte Inhalte (user generated content). Deshalb ist eine gewisse Durchlässigkeit zwischen den Bereichen der Matrix wichtig. Darüber hinaus sind einige Risiken nur für bestimmte Altersgruppen von Bedeutung und können daher nur mit Maßnahmen bekämpft werden, die speziell auf die Bedürfnisse dieser Nutzergruppen zugeschnitten sind. Unsere Organisation arbeitet in erster Linie mit Menschen, die aus sozial benachteiligenden Verhältnissen kom men. Deshalb sind wir besonders daran interessiert, die jungen Men schen zu fördern, denen sonst keine Unterstützung zuteil wird und die auf unsere Hilfe im Umgang mit den Risi ken des Internet angewiesen sind. John Fisher, Citizens Online 7 Matrix der Risiken und Bedrohungen Überwachungs- und Kontrollmechanismen Online-Schule für ein sicheres Internet Mediation Aufklärung und Bewusstseinsbildung Instanz, die Inhalte überwacht „Internetschutz polizei“ Weltweiter kabelloser Zugang zum Internet Internet Bereich Rowdytum USB Sticks mit universeller Filtersoftware Inhaltebezogen Verletzung des Urheberrechts Nicht-altersgemäße Inhalte Gewaltdarstellungen Verstöße gegen die Menschenrechte / Verleumdungen Datenbeständigkeit Internetsucht Falschinformationen und fehlerhafte Inhalte Anstiftung zur Selbstschädigung Illegale Inhalte, z.B. Rassismus, Kinderpornografie Datenportabilität PC-Sicherheit, Viren, Trojaner Preisgabe privater Daten, vor allem auf Social Community Plattformen Unangemessene Werbung für Kinder Ungeeignete Ratschläge Identitätsdiebstahl Geldverlust / Phishing Bullying / Schikanieren Wirtschaftlicher Betrug Kontaktanbahnung durch Pädophile Profilbildung Alkohol Glücks spiele Terrorismus Beschränkung für Chaträume: Nutzung nur mit Webcam Altersverifikation Kontaktbezogen Magersucht Reale Umgebung © Stiftung Digitale Chancen 8 Filtersoftware Ausbeutung und sexueller Missbrauch durch Aufnehmen und Verbreiten von Bildern von Kindern Risiken in Folge des Verhaltens anderer Internetsicherheit als Unterrichtsfach in der Schule Internetsicherheit als Gegenstand der Ausbildung von Lehrern Junge Internetexperten in Schulen Ausbildung jüngerer Schüler Stärkung/Befähigung Risiken in Folge des eigenen Verhaltens Medienkompetenz Möglichkeit, persönliche Daten in sozialen Netzwerken für immer zu löschen Drogen Selbstmord Ausbeutung und sexueller Missbrauch Antivirus Software A 1 Mit Online-Inhalten verbundene Risiken Bei Online-Inhalten muss man zwischen illegalen und schädlichen Inhalten unterscheiden. In den Ländern Europas gibt es keine einheitliche Festlegung, welche Inhalte als illegal, schädlich oder als ungeeignet anzusehen sind. Jedoch sind einige Inhalte wie z. B. Kinder pornographie in vielen Ländern der Welt verboten. A 1.1 Nicht-altersgemäße Inhalte Das Internet bietet große Mengen an Inhalten für alle Nutzergruppen. Allgemeine Interessen werden ebenso bedient wie spezielle Themen. Für Kinder und Jugendliche sollten bestimmte Inhalte nicht zugänglich sein. Welche Inhalte für welche Altersgruppen geeignet sind, muss sorgfältig abgewogen werden. Besondere Aufmerksamkeit ist den Inhalten zu widmen, die nicht generell illegal sind, jedoch schädlich für Jüngere sein können. Die Begegnung mit unangemessenen Inhalten wie Pornographie kann z. B. jüngeren Kindern schaden, wenn sie unbeabsichtigt damit konfrontiert werden. Nutzer können mit nichtaltersgemäßen Inhalten in Kontakt kommen, wenn sie gezielt danach suchen oder wenn sie zufällig auf diese Inhalte stoßen. Nicht-altersgemäße Inhalte werden aus kommerziellen Gründen angeboten, können jedoch auch von Nutzern selbst produziert werden. Während der Zugang zu den kommerziellen nicht-altersgemäßen Inhalten auf geschlossene Nutzergruppen beschränkt werden könnte, sind nutzergenerierte Inhalte meistens öffentlich verfügbar und erfordern daher besondere Aufmerksamkeit. Ein hoher Prozentsatz der Kinder und Jugendlichen verfügt heute über ein Mobiltelefon mit Multimedia-Funktionalitäten und Internetzugang, daher ist auch zu bedenken, dass sie mit diesen Geräten auf nicht-altersgemäße Inhalte zugreifen können, wenn sie allein sind und kein Erwachsener sie beaufsichtigt oder anleitet. Mobilgeräte ermöglichen es den Kindern auch, in jeder Lebenslage ihre eigenen digitalen Inhalte zu produzieren und damit zu der immer größer werdenden Menge von nutzergenerierten Inhalten beizutragen. A 1.2 Gewaltdarstellungen Gewaltdarstellungen sind eine weitere Art ungeeigneter Inhalte – ihre Wirkung auf den Zuschauer hängt zum größten Teil vom Alter des Zuschauers, seinen Konsumgewohnheiten hinsichtlich Internetinhalten und seinen Lebensumständen ab. Insbesondere jüngere Kinder sollten davor geschützt werden, zufällig auf Gewaltdarstellungen zu stoßen. Aber auch die absichtliche Suche nach solchen Inhalten, die ihnen auch auf anderen Medien oder in Läden nicht zugänglich gemacht werden dürfen, ist zu verhindern. Ein weiterer Schwerpunkt sollte auf nutzergenerierte Inhalte gelegt werden, insbesondere weil Kinder und Jugendliche auch Gewaltdarstellungen produzieren und verbreiten können und sich nicht darüber im Klaren sind, welchen Schaden diese Inhalte bei anderen anrichten können. 9 Seit mehr als zehn Jahren spielen der Jugendmedienschutz im Inter net und der Ansatz der Selbst regulierung eine wichtige Rolle in der Arbeit von eco, insbesondere durch das Betreiben einer Hotline zur Meldung von illegalen und Minderjährige gefährdenden Inhalten. Darüber hinaus ist eco Gründungsmitglied von INHOPE und beteiligt sich an verschiede nen Aktivitäten des Jugendme dienschutzes wie z. B. der Vertre tung von ICRADeutschland/fosi. A 1.3Illegale Inhalte, z. B. Rassismus oder Kinderpornographie Welche Inhalte als illegal zu klassifizieren sind, wird durch die nationale Gesetzgebung der Länder bestimmt. Einige Arten von Inhalten gelten in vielen Ländern gleichermaßen als illegal. Trotzdem stehen diese Inhalte online zur Verfügung und Kinder und Jugendliche können absichtlich oder unabsichtlich darauf stoßen. Bei der Herstellung und Verbreitung von Darstellungen des Kindesmissbrauchs sind Kinder und Jugendliche als Opfer Gegenstand von illegalen Inhalten. A 1.4 Falschinformationen und fehlerhafte Inhalte Das Risiko fehlerhafter Inhalte, z. B. in kollaborativ erstellten Webangeboten wie Wikipedia oder wenn gefälschte Produkte Alexandra Koch, eco Verband der deutschen Internetwirtschaft beworben werden, resultiert hauptsächlich aus den Handlungen anderer Nutzer. Es multipliziert sich mit der zunehmenden Anzahl von Web 2.0 Anwendungen, wo die Richtigkeit der Inhalte zumeist nur durch die Nutzer selbst kontrolliert wird und nicht durch eine Redaktion. Gerade unerfahrene junge Internetnutzer können durch bewusste Fehlinformationen, d. h. Inhalte, die eine bestimmte Botschaft transportieren sollen, in ihrer Meinungsbildung manipuliert werden. A 1.5 Anstiftung zur Selbstschädigung Es gibt viele Webseiten, die z. B. für Selbstmord, Magersucht oder Sektierertum werben und die Nutzer dazu anstiften, sich selbst zu schädigen. Durch Web 2.0 und die wachsenden Möglichkeiten der Nutzer, eigene Inhalte zu veröffentlichen, wächst auch das Risiko, auf Inhalte zu stoßen, die zu schädigendem Verhalten aufrufen. Besonders Kinder und Jugendliche sind in vielen Fällen nicht in der Lage, die Risiken richtig einzuschätzen, die aus der Befolgung solcher Anleitungen resultieren. A 1.6 Verstöße gegen die Menschenrechte / Verleumdungen In der Anonymität des Internet kann Propaganda, die sich gegen bestimmte Bevölkerungsgruppen oder Einzelpersonen richtet, leicht verbreitet werden. Hinzu kommt, dass die Menschen sich im Netz, wo sie die Reaktionen ihrer Gegner oder Opfer nicht sehen und daher nicht unmittelbar mit den Konsequenzen ihres Verhaltens konfrontiert sind, häufig anders verhalten als in der Realität. Deshalb ist das Risiko eines Verstoßes gegen die Menschenrechte oder einer Verleumdung online sehr viel wahrscheinlicher als offline. Ver- 10 leumderische Inhalte stellen insbesondere ein Risiko für Kinder und Jugendliche dar, deren Weltbild noch nicht gefestigt ist und von irreführenden Informationen leicht beeinflusst werden kann. A 1.7 Unangemessene, an Kinder gerichtete Werbung und Marketing Werbung ist unangemessen, wenn sie sich an Kinder richtet und Produkte und/oder Dienstleistungen propagiert, die für diese ungeeignet sind, wie z. B. Schönheitschirurgie. Je mehr private Informationen die Nutzer im Internet preisgeben, z. B. Name, Alter oder Geschlecht, desto wahrscheinlicher ist es, dass sie personenbezogene Werbung erhalten oder z. B. persönlich aufgefordert werden, an Gewinnspielen teilzunehmen. Da Kinder kaum abschätzen können, welche Folgen das Eintragen ihres Namens in Formulare und das Anklicken von Kästchen im Netz haben kann, wächst für sie das Risiko, persönlich adressierte Werbung zu erhalten. Mobiltelefone sind ein zusätzlicher Kanal, über den diese Art von Werbung Kinder und Jugendliche erreichen kann. A 1.8 Datenpersistenz / Datenbeständigkeit Im Netz veröffentlichte Inhalte gehen schnell um die Welt. Aufgrund der Möglichkeiten der digitalen Weiterverbreitung und Duplizierung ist es nahezu ausgeschlossen, einmal veröffentlichte Daten vollständig zu löschen. Besonders Kinder und Jugendliche sind sich der kurz- und langfristigen Konsequenzen nicht bewusst und veröffentlichen leichtfertig Texte und Bilder, die sie später vielleicht lieber zurücknehmen möchten. Daher betrifft das Risiko der Datenpersistenz besonders arglose junge Leute. A 1.9 Datenportabilität Wenn Daten auf einem Server oder einer Plattform im Internet gespeichert werden, können sie leicht von dort auf andere Server übertragen werden. Internetnutzer, die sich dessen nicht bewusst sind, gefährden ihre Privatsphäre. Die technischen Möglichkeiten des Netzes sind vielen jungen Menschen bekannt. Aber die meisten können nicht annähernd abschätzen, welche Konsequenzen es hat, wenn private Daten, die sie im Internet preisgeben, mit anderen Daten über ihre Person technisch zusammengeführt und ausgewertet werden. A 1.10Verletzung des Urheberrechts Das Risiko einer Verletzung des Urheberrechts resultiert häufig aus dem Verhalten der Nutzer selbst. Unabhängig davon, ob das Urheberrecht eines anderen absichtlich oder unabsichtlich verletzt wurde, handelt es sich um Betrug, der strafrechtlich verfolgt werden kann. 11 A 2 Mit Online-Kontakten verbundene Risiken A 2.1 Ungeeignete Ratschläge Foren, Blogs oder andere Kontaktbereiche des Internet bieten eine Plattform für den Austausch von Ratschlägen der Nutzer untereinander. Das kann eine wertvolle Hilfe sein, ermöglicht aber auch den Kontakt zu zweifelhaften Ratgebern, die riskante Tipps verbreiten. Das Risiko, dass Kinder und Jugendliche ungeeignete Ratschläge erhalten, ist auf Gemeinschaftsplattformen2 oder anderen interaktiven Web 2.0 Anwendungen größer als auf klassischen Webseiten. A 2.2 Internetsucht Da die Menschen immer mehr Zeit online verbringen, wächst auch die Gefahr der so genannten Internetsucht. Insbesondere junge Menschen riskieren, dass die Internetnutzung zur ständigen Gewohnheit wird und sie den Computer nicht mehr abschalten können. Dieses Risiko ist daher hauptsächlich mit dem eigenen Verhalten verbunden. A 2.3 Identitätsdiebstahl Identitätsdiebstahl im Internet ist die Beschaffung und Nutzung der elektronischen Identität anderer Personen (z. B. Nutzername und Passwort), um diesen damit wirtschaftlichen oder anderen Schaden zuzufügen und davon zu profitieren. Mit der wachsenden Anzahl der Nutzer von personalisierten Online-Dienstleistungen nimmt auch die Anzahl der virtuellen Identitäten zu – damit erhöht sich auch das Risiko des Identitätsdiebstahls. A 2.4 Geldverlust / Phishing Phishing bezeichnet das Abfangen von Bankangaben, insbesondere PINs und TANs, um auf die Bankkonten anderer zuzugreifen. Bei unerfahrenen Nutzern, insbesondere Jugendlichen besteht eine höhere Gefahr, dass sie eine gefälschte Webseite nicht erkennen, ihre Bankangaben eintragen und so Opfer von Phishing werden. A 2.5 Wirtschaftlicher Betrug Wenn Waren oder Dienstleistungen online verkauft werden, die entweder nicht die angegebenen Eigenschaften aufweisen oder überhaupt nicht geliefert werden, handelt es sich um wirtschaftlichen Betrug. Dieser kann auch aus Identitätsdiebstahl und Phishing resultieren oder beim Verkauf digitaler Dienstleistungen, z. B. einem Klingelton, auftreten: Im Betrugsfall wird ein unangemessener Preis verlangt oder der Kauf ist mit einem – nicht gewünschten – Abonnement für eine Dienstleistung verbunden, ohne dass der Kunde deutlich darauf hingewiesen wurde. Für Kinder und Jugendliche ist die Unterscheidung 12 2-A ls Gemeinschaftsplattformen werden so genannte Social Community Networks bezeichnet, bei denen die Nutzer Mitglied werden und sich mit einem persönlichen Profil der Gemeinschaft der Nutzer vorstellen. zwischen seriösen Online-Verträgen und solchen mit einem Betrugsrisiko besonders schwierig. A 2.6 Grooming / Kontaktanbahnung durch Pädophile Pädophile nutzen das Internet, um Kinder und Jugendliche zu kontaktieren und verbergen dabei ihre erwachsene Identität. Ihre Strategie stützt sich auf das Bedürfnis von Kindern nach Freundschaft und Vertrautheit. Alle Bereiche des Internet, wo Möglichkeiten des persönlichen Kontakts und Austauschs angeboten werden, können auch als Basis für Grooming dienen. Das Mobiltelefon muss als zusätzlicher Weg, mit anderen in Kontakt zu treten und sich Zugang z. B. zu Gemeinschaftsplattformen zu verschaffen, mit berücksichtigt werden. Gerade Kinder betrachten ihr Mobiltelefon als einen Teil ihrer Privatsphäre und sind häufig allein, wenn sie es benutzen. Das Risiko, Opfer von Grooming zu werden und einer gefährlichen Einladung zu folgen, ist dann noch größer. „Child on the Web“ Kampagne, 2004, Nobody’s Children Foundation und VA Strategic Communications Agency 13 A 2.7 Bullying / Schikanieren Gemeinheiten und Belästigungen gehören in gewisser Weise zum Alltag von Kindern und Jugendlichen. Die Anonymität, die das Internet bietet, kann derartiges Verhalten noch bestärken. Kinder und Jugendliche können sowohl Opfer als auch Täter sein. Das Bullying ist also sowohl mit dem eigenen als auch dem Verhalten anderer verbunden. Die Veröffent lichung z. B. von diffamierenden Bildern kann eine Form des Bullyings sein, hauptsächlich tritt das Phänomen jedoch in der Online-Kommunikation auf. Oft werden multifunktionale Mobiltelefone benutzt, um Fotos zu machen und sie ins Internet zu stellen oder sie per MMS an andere zu schicken. Durch die weite Verbreitung von Mobiltelefonen mit Digitalkamera bei Kindern und Jugendlichen wird Bullying vereinfacht. A 2.8 Preisgabe privater Informationen Beim Einstellen eines Profils auf einer Gemeinschaftsplattform werden private Informationen preisgegeben, weil der Nutzer sich der Gemeinschaft vorstellen will. Auch in Chat rooms3 und Foren teilen viele Nutzer anderen ihre privaten Daten wie Adresse oder Telefonnummer mit. Besonders junge Menschen können oft die Folgen nicht abschätzen, die die Preisgabe von persönlichen Daten haben kann. Sie sind sich zumeist nicht bewusst, dass ein Chatroom kein privater, sondern ein öffentlicher Bereich ist. A 2.9. Profilbildung Mit der zunehmenden Anzahl von Profilen, durch die eine Person persönliche Informationen auf verschiedenen Plattformen veröffentlicht, erhöht sich das Risiko, dass diese Daten von anderen zusammengeführt oder weitergegeben werden. So können Profile gebildet werden, mit denen man die Person direkt ansprechen kann, sei es mit unerwünschten Inhalten, Dienstleistungen oder Werbung. Profilbildung kann von der Webseite aus erfolgen, auf der die persönlichen Daten öffentlich gemacht wurden. Noch gefährlicher ist es, wenn die Profile der Nutzer oder Teile davon gezielt aus der Datenbank, die hinter der Webseite steht, abgegriffen und an Dritte weiterverkauft werden. 3 - Wörtlich ‘Schwatzraum’, Bereich des Internet, in dem mehrere Nutzer gleichzeitig in Echtzeit miteinander kommunizieren 14 B·Ü berblick über verfügbare Technologien zur Unterstützung des Jugendschutzes Die YPRT-Mitgliedsorganisationen haben sich mit den verfügbaren Technologien für den Jugendmedienschutz befasst, dabei aktuelle Forschungsergebnisse berücksichtigt und die Effektivität der hier aufgeführten technischen Instrumente auf der Grundlage ihrer eigenen Expertise eingeschätzt. Diese Einschätzungen wurden gemeinsam erörtert, überprüft und gegebenenfalls noch einmal revidiert. Das führte zu einer Validierung und zunehmenden Übereinstimmung des Urteils der Expertinnen und Experten.4 Die Mitglieder des YPRT kamen durch diesen Prozess zu der Erkenntnis, dass alle technischen Instrumente durch zusätzliche Maßnahmen wie z. B. die Förderung der Medienkompetenz ergänzt werden müssen, um wirklich effektiv zu sein. Technische Instrumente werden daher in diesem Handbuch nicht als Lösungen, sondern als unterstützende Technologien für den Jugendschutz bezeichnet. Die folgende Version der Matrix der Risiken und Bedrohungen zeigt, in welchen Bereichen diese Technologien wirksam sein und damit die Bemühungen um den Jugendschutz im Internet unterstützen können. 4-N otiz des Herausgebers: Der folgende Abschnitt basiert auf der zweiten Effektivitätsabschätzung der Instrumente durch die YPRT-Mitgliedsorganisationen während des 4. YPRT-Treffens im November 2008 in London. 15 Matrix der Risiken und Bedrohungen Filter software Medienkompetenz Junge Internetexperten in Schulen Ausbildung jüngerer Schüler Online-Schule für ein sicheres Internet Alkohol Stärkung/Befähigung Rowdytum Mediation Verletzung des Urheberrechts Nicht-altersgemäße Inhalte Datenpersistenz GewaltFalschinformationen darstellungen und fehlerhafte Inhalte Verstöße gegen die Menschenrechte / Verleumdungen Internetsucht Anstiftung zur Selbstschädigung Illegale Inhalte, z.B. Rassismus, Kinderpornografie Datenportabilität PC-Sicherheit, Viren, Trojaner Unangemessene Werbung für Kinder Preisgabe privater Daten, vor allem auf Social Community Plattformen Ungeeignete Ratschläge Identitätsdiebstahl Wirtschaftlicher Betrug Geldverlust / Phishing Bullying / Schikanieren Kontaktanbahnung durch Pädophile Profil bildung Risiken in Folge des Verhaltens anderer Weltweiter kabelloser Zugang zum Internet Ausbeutung und sexueller Missbrauch durch Aufnehmen und Verbreiten von Bildern von Kindern Kontaktbezogen Magersucht Internet Bereich Reale Umgebung © Stiftung Digitale Chancen 16 „Internetschutz polizei“ Instanz, die Inhalte überwacht Inhaltebezogen Risiken in Folge des eigenen Verhaltens Aufklärung und Bewusstseinsbildung Überwachungs- und Kontrollmechanismen Internetsicherheit als Gegenstand Internetsicherheit als Unterrichtsfach in der Schule der Ausbildung von Lehrern Drogen Selbstmord Ausbeutung und sexueller Missbrauch Möglichkeit, persönliche Daten in sozialen Netzwer ken für immer zu löschen Beschränkung für Chaträume: Nutzung nur mit Webcam Glücks spiele Altersverifikation Terrorismus Anti-Grooming Maschine USB Sticks mit universeller Filtersoftware Spam Filter Antivirus Software B 1 Filter-Software B 1.1 Beschreibung von Filtersoftware und Filterprozessen Filtersoftware ist eine elektronische Anwendung, die es erlaubt, Internetinhalte auszuwählen und auszusortieren. Filtersoftware kann Kinder und Jugendliche davor schützen, absichtlich oder unabsichtlich mit schädlichen, illegalen oder unangemessenen Inhalten in Kontakt zu kommen. Allerdings sind gerade junge Leute technisch versiert und häufig in der Lage, Filtersoftware zu umgehen. Filterprogramme arbeiten zumeist auf der Basis von Listen mit klassifizierten Inhalten oder sie analysieren den Inhalt von Webseiten mit semantischen oder statistischen Methoden. Sie können als Programme oder Module auf dem Endnutzer-Gerät laufen oder auf einem zentralen Internetzugangspunkt wie einem Proxy-Server oder beim Provider betrieben werden. Die Inhalte können durch folgende Klassifizierungen eingestuft werden: eine redaktionelle Klassifizierung (schwarze und weiße Listen5 ), eine automatische Klassifizierung (Schlagwort-Blockierung) oder eine InhalteKlassifizierung, die von einer unabhängigen Agentur geprüft wird (z. B. NICAM als Administrator von PEGI oder vom Inhalte-Anbieter selbst, z. B. ICRA-Kennzeichnung). Bei den meisten Filterprogrammen wirken verschiedene Klassifizierungsmethoden zusammen.6 Laut SIP Benchmark7 kann das Filtern auf verschiedenen Ebenen erfolgen. Filtersoftware kann an folgenden Stellen installiert werden: im PC des Endnutzers, auf einem lokalen Server, beim Internet-Service-Provider oder an anderer Stelle im Internet, d. h. einem Internet-Filterservice auf der Basis eines Proxy-Servers. Folgende technische Formen der Filterung sind möglich: lockierung einer Anfrage an eine •B URL, die in einer vom Anbieter der Software gelieferten schwarzen Liste aufgeführt ist (lokale schwarze Liste) oder die auf einer schwarzen Liste auf der Webseite des Anbieters steht (Fernwirkung der schwarzen Liste) • Blockierung einer Anfrage an eine URL, die nicht auf einer vom Anbieter der Software gelieferten weißen Liste aufgeführt ist (lokal oder Fernabfrage der weißen Liste) The convenience of filtering solutions has improved between 2006 and 2008 5-B lacklists oder schwarze Listen verzeichnen unerwünschte URLs oder Begriffe, während Whitelists oder weiße Listen die erwünschten URLs oder Begriffe enthalten, die den Filter passieren dürfen. 6 - Quelle: http://www.lusi.lu/index.php?id=16&L=1 7 - Quelle: Deloitte: http://www.sip-bench.eu/Reports2007/SIP%20Bench%202007%20-%20Synthesis%20Report.pdf © Deloitte 2008 17 •B lockierung einer Anfrage an eine URL, die einen oder mehrere Schlüsselbegriffe enthält, die der Nutzer selbst auf eine schwarze Liste gesetzt hat • Blockierung von Inhalten, die einen oder mehrere Schlüsselbegriffe enthalten, die der Nutzer selbst auf eine schwarze Liste gesetzt hat • Löschen von Teilen des Inhalts, die Schlüsselbegriffen ähneln, die der Erziehungs berechtigte auf die schwarze Liste gesetzt hat • Blockierung einer Anfrage an eine URL mit ICRA-Kennzeichnung, die vom Nutzer selbst auf die schwarze Liste gesetzt wurde (ICRA-Ferncheck) • Blockierung einer Seite mit ICRA-Kennzeichnung, die vom Nutzer selbst auf die schwarze Liste gesetzt wurde (lokaler ICRA-Check) • Abschaltung spezieller Anwendungen (während bestimmter Zeiträume) • Abschaltung spezieller Anwendungen außerhalb eines vom Nutzer spezifizierten Zeitraums • Abschaltung bestimmter Ports. Das Family Online Safety Institute (FOSI) ist eine internationale Non-Profit-Organisation, die daran arbeitet, die Onlinewelt für Kinder und ihre Familien sicherer zu machen durch die Förderung von Beispielen guter Praxis sowie Instrumenten für die Internetsicher heit, die auch das Recht auf freie Meinungs äußerung respektieren. Einen besseren Jugendmedienschutz voranzubringen ist ein wesentliches Element unserer Strategie, und durch Initiativen wie den Youth Protec tion Roundtable können wir die Positionen unserer Mitglieder mit einer größeren Gemeinschaft von Vertretern des Jugend medienschutzes teilen. David Miles, European Director of the Family Online Safety Institute 18 Für eine hohe Effektivität des Filterns werden meistens mehrere technische Lösungen kombiniert. Der Einsatz von Filtersoftware kann Nebenwirkungen haben – sowohl im Hinblick auf freie Meinungsäußerung und unbeabsichtigte Zensur als auch durch das Problem von fehlerhaften Positivmeldungen, d. h. der Filter schlägt an, ohne dass es sich tatsächlich um zu filternde Inhalte handelt. Darüber hinaus sind durch den Filterprozess negative Auswirkungen auf die Infrastruktur und die Qualität der Dienstleistungen möglich. B 1.2 Effektivität der Filtersoftware Filtersoftware wird als Mittel zur Lösung einer Reihe von Problemen angesehen. Im Hinblick auf die verschiedenen in Abschnitt A aufgeführten Risiken wird deutlich: Je konkreter eine Art von Inhalten oder eine Art von Online-Verhalten definiert werden kann, desto wahrscheinlicher ist deren Entdeckung durch die eingesetzte Filtersoftware. Filtersoftware ist demzufolge weniger effektiv für weniger konkret definierbare Inhalte und Online-Verhaltensweisen. Filtersoftware blockiert nach Einschätzung der Experten des YPRT die Hälfte aller Webseiten mit nicht-altersgemäßen Inhalten und Gewaltdarstellungen. Bei illegalen Inhalten erreicht Filtersoftware einen geringfügig höheren Effektivitätsgrad. Illegale Inhalte können i. d. R. konkret definiert werden, deshalb können sie durch Filtersoftware leichter erkannt werden als andere Arten von Inhalten und Online-Verhalten. Umgekehrt versagt Filtersoftware bei den schwerer zu definierenden fehlerhaften Inhalten; hier wird die Effektivität durch den YPRT als gering eingeschätzt. Verstärkt wird der Eindruck, dass Filtersoftware am ehesten bei konkret definierbaren Inhalten und Verhaltensweisen wirksam wird, durch die Ergebnisse, die Filtersoftware bei unangemessener Werbung für Kinder und bei Anstiftung zu schädigendem Verhalten erzielt. Beide Arten von Inhalten können nach Expertenansicht in einem Drittel der Fälle definiert und daher von der Filtersoftware als zu blockierende Inhalte entdeckt werden. Schwieriger ist es, ungeeignete Ratschläge zu entdecken, die oft in direktem Kontakt zwischen den Nutzern gegeben werden; daher wird geschätzt, dass nur einer von sieben Fällen durch Filtersoftware identifiziert werden kann. Auch Grooming kann von Filtersoftware nicht in ausreichendem Maße erkannt werden; die Experten schätzen, dass dies nur in einem von fünf Fällen möglich ist. Dem Risiko der Preisgabe privater Informationen, das eher in den Kontaktbereichen des Internet auftritt, kann nur in einem von zehn Fällen durch Filtersoftware begegnet werden, so die Meinung der Experten. Mit dem eigenen Verhalten der Nutzer verbundene Risiken wie Verletzung des Urheber rechts und Internetsucht sowie die mit dem Verhalten anderer Nutzer verbundenen Risiken wie Identitätsdiebstahl und Bullying können durch Filtersoftware nur in geringem Umfang aufgedeckt und verhindert werden. Auch bei der Verletzung der Menschenrechte und Verleumdung, die beide aus dem eigenen und dem Verhalten anderer resultieren können, kann Filtersoftware nach Expertenschätzungen nur einen von zehn Fällen erkennen. Weiterhin sind sie der Meinung, dass Filtersoftware nur einem Sechstel der Fälle von wirt schaftlichem Betrug und Phishing entgegenwirken kann; im Hinblick auf die Verhinderung von Profilbildung ist die Effektivität von Filtersoftware noch geringer, für Datenportabilität und Datenpersistenz wird Filtersoftware als nahezu ineffizient eingeschätzt. 19 B 2 Überwachungs- und Kontrollmechanismen B 2.1Beschreibung von Überwachungs- und Kontrollmechanismen und deren Arbeitsabläufen Überwachungs‑ und Kontrollmechanismen basieren in der Regel auf einer Software, die den Inhalt und das Nutzerverhalten im Internet kontrolliert und die Ergebnisse einer zuständigen Person mitteilt. Überwachungs- und Kontrollsysteme sind Instrumente für die systematische Suche nach Online-Inhalten, die anschließend kategorisiert werden,8 z. B. in harmlose Inhalte und bedenkliche Inhalte. Als Überwachungsmechanismus bezeichnet man die automatische Abfrage oder Überprüfung von Systemen und Dienstleistungen in einer Online-Umgebung 9 durch einen Filtermechanismus. Zur Verbesserung der Ergebnisse findet anschließend an den technischen Vorgang eine menschliche Prüfung statt, um zu entscheiden, welche Inhalte gefiltert oder entfernt werden müssen. Diese Prüfung wird üblicherweise als Stichprobenerhebung der untersuchten Inhalte ausgeführt. Überwachungs- und Kontrollsysteme ermöglichen u. a. die Prüfung von Chat-Sitzungen, Blog-Eintragungen oder den Upload und Austausch von Bildern. Technisch können Überwachungs‑ und Kontrollmechanismen auf der Ebene des Internet Service Providers (ISP) oder des Betreibers eines Online-Service installiert sein. Einige Überwachungsverfahren überprüfen die Inhalte, bevor diese online gestellt werden. Andere Überwachungsverfahren basieren auf dem Notice-and-take-down-Verfahren, bei dem Online-Inhalte entfernt werden, sobald sie entdeckt wurden.10 Im Hinblick auf Online-Kommunikation führt dieser Ansatz zu einer Löschung oder Deaktivierung von Nutzerprofilen, sobald eine Verletzung des Verhaltenskodex gemeldet oder entdeckt wird. B 2.2 Effektivität von Überwachungs‑ und Kontrollmechanismen Durch Überwachungs‑ und Kontrollmechanismen können Inhalte und die Kommunikation im Internet in gewissem Umfang überprüft werden. Dies geschieht in verschiedenen Phasen der Inhaltespeicherung und des Hosting sowie während des Prozesses der Zugangsgewährung. Unter der Voraussetzung, dass sich die Entscheidung, ob Online-Inhalte entfernt werden und ob Onlinekommunikation gefiltert und gegebenenfalls unterbrochen wird, auf die zusätzliche Prüfung durch einen Menschen stützt, wird die Effektivität von Überwachungs‑ und Kontrollmechanismen höher eingeschätzt als die von Filtersoftware allein. 20 8 - Quelle: Wikipedia Wikipedia http://de.wikipedia.org/wiki/Webmonitoring 9 - Quelle: SiteScope193.138.212.37/SiteScope/docs/SiteScopeTerms.htm 10 - Der PEGI Online Safety Code schreibt z. B. vor, dass ein effektives Alarmsystem vorhanden sein muss, um berechtigt zu sein, das PEGI Online Label zu tragen. ©T echnogroup IT-Service GmbH Überwachungs‑ und Kontrollmechanismen können nach Einschätzung der Experten die Hälfte aller Fälle von nicht-altersgemäßen Inhalten aufdecken. Die Effektivität bei Gewalt darstellungen und illegalen Inhalten sowie im Hinblick auf die Anstiftung zur Selbstschädi gung wird mit 40 % aller Fälle nur wenig geringer beurteilt. Es wird geschätzt, dass durch Überwachungs‑ und Kontrollmechanismen mindestens jeder dritte Fall von ungeeigneten Ratschlägen, Verletzungen der Menschenrechte und Verleum dung sowie Grooming und unangemessener Werbung für Kinder aufgedeckt werden kann. Mehr als jeder vierte Fall von Phishing und mehr als jeder dritte Fall von Bullying kann nach Beurteilung der Experten durch Überwachungs‑ und Kontrollmechanismen entdeckt werden. Bei fehlerhaften Inhalten, Verletzungen des Urheberrechts, wirtschaftlichem Betrug, Identitätsdiebstahl und Preisgabe privater Informationen liegt die Effektivität bei ca. jedem fünften Fall. Die Möglichkeit, Internetsucht durch Überwachung aufzudecken, ist nach Ansicht der Experten mit einem von sechs Fällen eher gering. Überwachungs‑ und Kontrollmechanismen schneiden bei Datenpersistenz, Datenportabili tät und Profilbildung etwas besser ab als Filtersoftware, dennoch liegt die Effektivität hier nur bei weniger als einem von zehn Fällen. B 3 Altersverifikation B 3.1Beschreibung von Altersverifikationssystemen und deren Arbeitsabläufen Es gibt verschiedene Systeme, um das Alter der Nutzer von Onlinediensten zu verifizieren und sicherzustellen, dass bestimmten Altersgruppen nur für diese geeignete Inhalte und Dienstleistungen bereitgestellt werden. Ein Altersnachweis kann durch eine einmalige persönliche Autorisierung außerhalb des Internet stattfinden. Abfrage der Altersgrenze ohne Übermittlung des Geburtsdatums Das heißt, nach einer persönlichen Identifizierung und dem Abfrage-Altersgrenze (z.B. 12+ / 14+) Nachweis seines Alters durch ein geeignetes Dokument bekommt der Nutzer seine Zugangsdaten, z. B. Passwort Ohne PIN-Abfrage? oder PIN. Diese umfassen üblicherweise auch ZahlungsMit PIN-Abfrage? funktionen – so soll sichergestellt werden, dass der Besitzer selbst seine Zugangsdaten sicher verwahrt, um GeldPIN durch Erwach PIN durch Minderjähriverluste zu vermeiden. Fortschrittliche Identifizierungs- und senen einzugeben? gen einzugeben? Altersnachweissysteme basieren auf dem Konzept der 21 Zusammengehörigkeit von Token (Karte oder Stick) und Wissen (PIN oder Passwort). Nur die Person, die über beides verfügt, kann darlegen, dass sie der legitime Besitzer der Identität ist und damit beweisen, dass sie zu einer bestimmten Altersgruppe gehört. Diese Art der technischen Altersverifikation bietet einen hohen Grad an Effektivität, erfordert allerdings spezielle technische Geräte (z. B. einen Kartenleser) und entsprechende rechtliche Regelungen. Zurzeit gibt es in vielen europäischen Ländern Gesetze, die einen Altersnachweis für Erwachsene vorsehen, um ihnen den Zugriff auf Inhalte, die nur für Erwachsene geeignet sind, zu ermöglichen und den Zugang von Minderjährigen zu diesen Inhalten zu verhindern. Allerdings sind nur wenige Konzepte der Altersverifikation für Minderjährige verfügbar, die dazu dienen, nachzuweisen, dass die Nutzer unterhalb einer festgelegten Altersgrenze liegen. Durch derartige Konzepte kann sichergestellt werden, dass nur Kinder und Jugendliche Zugang zu speziellen Internetbereichen wie z. B. Chatrooms für Kinder bekommen; die Kids Card in Belgien ist ein Beispiel. Das von den in Kapitel A beschriebenen Risiken ausgehende Gefährdungspotential hängt vielfach entscheidend vom Alter der Nutzer ab. Daher spielt die Altersverifikation eine wichtige Rolle im Hinblick auf die Zugangsbeschränkung für Minderjährige zu bestimmten Inhalten oder Plattformen mit Kontaktmöglichkeiten. B 3.2 Effektivität der Altersverifikation Wie beschrieben, ist die Altersverifikation ein Instrument, um den Zugang zu bestimmten Inhalten oder Bereichen des Internet zu beschränken. Daher überrascht es nicht, dass Altersverifikation bei nicht-altersgemäßen Inhalten (fast die Hälfte der Fälle) und Gewalt darstellungen effektiver ist als bei anderen Risiken. Bei illegalen Inhalten und für Kinder ungeeigneter Werbung wird von den Experten angenommen, dass jeder vierte bis fünfte Fall durch Altersverifikation verhindert werden kann. Altersverifikation kann nach Experteneinschätzung einen von sieben Fällen von Grooming aufdecken, hat also in Bezug auf dieses Risiko eine geringe Effektivität. Auch die Anstiftung zu selbstschädigendem Verhalten kann mit dieser Technik nicht wirksam bekämpft werden. Wenig effektiv ist sie ebenfalls bei ungeeigneten Ratschlägen, Phishing und wirtschaftlichem Betrug; bei anderen Risiken ist Altersverifikation nahezu ineffektiv. 22 B 4 Andere technische Instrumente B 4.1Beschreibung anderer Instrumente, der zugrundeliegenden Verfahren und deren Effektivität Wie Altersverifikation gibt es weitere Instrumente, die ganz bestimmte Risikobereiche adressieren. Durch Zeitkontrollmechanismen kann die Nutzung eines Computers auf eine bestimmte Zeitspanne beschränkt werden, nach deren Ablauf der Computer abgeschaltet wird. Zeit kontrollmechanismen können zur Bekämpfung von Internetsucht hilfreich sein, auch wenn sie nicht explizit für diesen Zweck entwickelt wurden. Nach Expertenansicht könnten sie jedem zweiten Fall von Internetsucht entgegenwirken. Automatische Authentifizierungsprozesse basieren normalerweise auf personenbezogenen Authentifizierungsfaktoren, d. h. etwas, das die Person besitzt (wie einen Personalausweis), etwas, das eine Person weiß (wie eine PIN oder ein Passwort) oder etwas, das eine Person ist oder tut (wie ein Fingerabdruck). Authentifizierungsprozesse, die hohen Sicherheitsanforderungen entsprechen müssen, basieren oft auf asymmetrischer Kryptographie wie die digitale Signatur. Nach Meinung der Experten können automatische Authentifizierungsprozesse mehr als ein Drittel der Fälle von Identitätsdiebstahl verhindern. Anti-Phishing-Software ist eine spezielle Art der Filtersoftware, um Phishing aufzudecken und zu verhindern. Die Effektivität wird unterschiedlich beurteilt: Einige der Experten am YPRT halten sie für hoch mit zwei Drittel aller Fälle, während andere nur ein Viertel annehmen. Digitale Wasserzeichen11 können eine Lösung sein, um Verletzungen des Urheberrechts zu verhindern. Per Wasserzeichentechnik kann ein bestimmter Code in digitale Inhalte eingefügt werden. Um aufzudecken, wo sich die Inhalte befinden, dupliziert oder verteilt werden, wird zusätzlich ein Überwachungstool benötigt, das das Wasserzeichen erkennt. Man nimmt an, dass eine von vier Verletzungen des Urheberrechts durch Wasserzeichentechnik verhindert werden kann. Datenpersistenz und Datenportabilität müssen nicht a priori als Risiko betrachtet werden. Beide sind nützlich, wenn sichergestellt werden soll, dass Daten unverändert bleiben und dass sie in ein anderes System übertragen werden können. Trotzdem können Daten11 - Source: http://www.copyrightinfo.eu/ 23 persistenz und Datenportabilität den Nutzern Probleme bereiten. Nicht jeder möchte, dass alle persönlichen Daten für immer wiederauffindbar gespeichert werden. Wie oben beschrieben, versagen fast alle bekannten technischen Instrumente im Hinblick auf – unerwünschte – Datenpersistenz und Datenportabilität. Kodierung ist der Prozess der Transformation von Informationen von einem Format in ein anderes und kann ein Instrument sein, um die unerwünschte Portierung von Daten zu verhindern. Bevor die kodierten Daten in ein anderes System portiert und z. B. mit anderen Daten zusammengeführt werden können, müssen sie dekodiert werden. Kodierung kann nach Expertenmeinung in etwa der Hälfte der Fälle die unerwünschte Portierung von Daten verhindern. Die generelle Festlegung eines Ablaufdatums bei allen nutzergenerierten Inhalten kann nach Experteneinschätzung in einem Viertel aller Fälle das Risiko der Datenpersistenz reduzieren. Auch eine nicht zu entfernende Kennzeichnung der Inhalte mit einem Ablaufdatum kann unerwünschte Datenpersistenz vermeiden helfen. Eine permanent angebotene Option, persönliche Daten zu löschen, kann den Experten zufolge in einem von fünf Fällen das Risiko der unerwünschten Vervielfältigung von Daten minimieren. Eine so genannte Anti-Grooming-Maschine12 ist ein Tool, in dem mehrere Methoden kombiniert sind, um ungewöhnliches Verhalten aufzuspüren und damit Grooming-Angriffe auf Kinder in Chatrooms zu verhindern. Die Maschine arbeitet mit einer Datenbank, die Profile des bei Pädophilen üblichen Verhaltens und des Verhaltens von Kindern enthält. Diese Profile basieren auf einer Analyse der Kommunikation im Hinblick auf Vokabular, Zeichensetzung, Satzlänge, Tippgeschwindigkeit und Aggressionsniveau. Die Profile werden regelmäßig auf den neuesten Stand gebracht; damit soll die Maschine imstande sein, zwischen geeigneten und unpassenden Kontakten zu unterscheiden. Im Falle von Hinweisen auf eine verdächtige Beziehung wird per SMS, E-Mail oder durch ein aktivierbares Kontrollfeld auf dem PC ein Alarm an den verantwortlichen Erwachsenen geschickt. Dieses Tool wird in zwei Fünftel aller Fälle für effektiv gehalten, d. h. es wird bei Grooming für ebenso effektiv wie Überwachungsund Kontrollmechanismen erachtet. © crisp Thinking Group Ltd. 12 - Quelle: http://www.crispthinking.com 24 C · Verbesserung des Jugendschutzes im Internet Die Vorschläge des YPRT zur Verbesserung des Jugendschutzes im Internet betreffen folgende Aspekte: • Maßnahmen zur effizienten Anwendung unterstützender Technologien •p ädagogische Maßnahmen, kombiniert mit unterstützenden Technologien abgestimmt auf die unterschiedlichen Altersgruppen • allgemeine Rahmenbedingungen des Jugendschutzes Das vom YPRT entwickelte Toolkit unterstützt die Akteure, die durch die Bereitstellung von Dienstleistungen und Inhalten im Internet, die Entwicklung von Internet-Hardware und -Software, die Beratung von Eltern, die Erziehung von Kindern und Jugendlichen, die Ausbildung von Multiplikatoren und durch politische Entscheidungen einen Beitrag zum Jugendmedienschutz leisten können. Die vorgeschlagenen Maßnahmen sind verschiedenen Kategorien zugeordnet, von denen jede unterschiedliche Akteure anspricht. 25 C 1 Verbesserung unterstützender Technologien und Infrastrukturen Unterstützende Technologien und Infrastrukturen wie z. B. Filtersoftware, Überwa- chungs- und Kontrollmechanismen sowie Identifizierungs- und Verifizierungssysteme entfalten nicht immer ihr volles Potential für den Jugendschutz. Es ist daher erforderlich, sie sowohl technisch zu verbessern als auch die Zusammenarbeit zwischen den verschiedenen beteiligten Akteuren wie Service‑Provider, Hardware-Hersteller und Software-Entwickler, Forschungsgruppen und Regulierungsstellen zu intensivieren. Der YPRT tritt dafür ein, dass das Potential unterstützender Technologien und Infrastruk- turen stärker genutzt wird, indem einzelne Lösungen technisch verbessert werden und das Zusammenwirken der verschiedenen unterstützenden Technologien optimiert wird. Der YPRT tritt weiter dafür ein, dass Verfahren für die Zusammenarbeit und die ge- meinsame Nutzung von Ressourcen durch die beteiligten Akteure etabliert werden. Der YPRT fordert diese Akteure dazu auf, folgende Verbesserungen in Erwägung zu ziehen: C 1.1 Regelmäßige Aktualisierung der sogenannten Black- und Whitelists C 1.2 Implementierung bereits vorhandener Listen von illegalen und ungeeigneten Inhalten, die von den nationalen Behörden genehmigt und in den jeweiligen Ländern bereits implementiert wurden, z. B. das so genannte BPJM-Modul in Deutschland. (Um Missbrauch zu vermeiden, dürfen diese Listen der Öffentlichkeit jedoch nicht zugänglich sein.) C 1.3 Förderung der Interoperabilität von Klassifizierungssystemen C 1.4 Förderung der nutzerbasierten Klassifizierung von Inhalten, gespeichert in einer Datenbank, die allen Akteuren zur Verwendung – in guter Absicht – zugänglich ist C 1.5 Ordnungsgemäße Protokollierung aller Filteraktivitäten in Logfiles C 1.6 Verbesserung der Nutzbarkeit von Logfiles (softwaregestützte Logfile-Analyse) C 1.7 Förderung und Verbesserung von Lernsoftware und Nutzung künstlicher Intelligenz zur Verbesserung von Filterprozessen C 1.8 Verbesserung der Robustheit von Filtersoftware im Hinblick auf die verwendeten Browser C 1.9 Sicherstellung des einwandfreien Funktionierens von unterstützenden Technolo gien unabhängig von dem Gerät, mit dem auf das Internet zugegriffen wird (PC, Handy, Spielkonsole usw.) 26 C 2 Verbesserung der Nutzbarkeit von Filtersoftware Die Effektivität von Filtersoftware hängt stark davon ab, dass die Nutzer in der Lage sind, die Software zu installieren, zu konfigurieren und an ihren Bedarf und ihre Lebensumstände anzupassen. Der YPRT empfiehlt, die Nutzbarkeit von Filtersoftware durch die Überprüfung der technischen Voraussetzungen und der Nutzungsbedingungen zu verbessern und dabei insbesondere die Verständlichkeit sowie die Transparenz des Filterprozesses und der Filterentscheidung zu berücksichtigen. C 2.1 V orinstallation von Filtersoftware auf der Hardware, die für den Zugang zum Internet benutzt wird (PC, Spielkonsole oder Mobilgerät) oder die mit der Dienstleistung zusammen angeboten wird (vorzugsweise standardmäßig aktiviert, d. h. mit der Option sie zu deaktivieren anstatt aktivieren zu müssen) C 2.2 Vermeidung von Konflikten mit anderer Software (z. B. Anti-Virus-Software) C 2.3 Verhinderung des Umgehens der Filtersoftware am Gerät des Endnutzers (z. B. keine Umgehung der Filter durch falsche Orthographie, Nutzung anderer Sprachen oder alternativer Infrastrukturen und Netze) C 2.4 Anpassung der Installations- und Aktualisierungsverfahren an die Erwartungen von Eltern C 2.5 Bereitstellung eines verständlichen Nutzerdialogs und einer Anleitung, die auf das Alter des Nutzers abgestimmt sind C 2.6 Vollständige Transparenz und Verständlichkeit der Filterentscheidung für den Nutzer, angepasst an dessen Alter Im Zeitalter des Web 2.0 wächst die Ver antwortung der Betreiber, ihre Dienste möglichst sicher zu gestalten und Risiken für Kinder und Jugendliche zu reduzieren. Gleichzeitig wird es immer wichtiger, Eltern, Pädagoginnen und Pädagogen Wissen und Werkzeuge an die Hand zu ge ben, mit denen sie Kinder und Jugendliche vor gefährlichen Inhalten und riskanten Kontakten schützen können. Technische Schutzmaßnahmen und Jugendschutzsoft ware müssen verbessert werden, damit sie Eltern bei der Medienerziehung wirk sam helfen und entlasten können. Mark Bootz, jugendschutz.net 27 C 2.7 Bereitstellung von Informationen zum Filterprozess, im Einzelnen C 2.7.1 dass Filterverfahren implementiert sind C 2.7.2 auf welcher Basis die Filtersoftware arbeitet (z. B. Black- oder Whitelists mit URLs oder Wörtern) C 2.7.3 über die Filterkriterien generell C 2.7.4 warum ein bestimmter Inhalt gefiltert wurde C 2.7.5 über die geschätzte Effektivität der Filtersoftware im Hinblick auf die verschiedenen Arten von Inhalt und Kommunikation C 2.7.6 wie die Blockierung von Inhalten und das Filtern außer Kraft gesetzt werden können C 2.7.7 wohin Beschwerden wegen ungerechtfertigter Blockierung von Inhalten gerichtet werden können C 2.8 Bereitstellung von einfach zu handhabenden Anpassungsmechanismen für die Filtersoftware und Informationen für den Nutzer, wie der Filter an eigene Bedürfnisse oder die der Kinder angepasst werden kann C 2.9 Bereitstellung der Option, Filtermethoden zu importieren oder zu exportieren, um die gemeinsame Verwendung der Methoden für Lehrer und Eltern zu vereinfachen C 2.10 B erücksichtigung der Erfordernisse für Konsistenz, Transparenz und Verständlichkeit der Filterverfahren, insbesondere Vermeidung von Inkonsistenz bei Filter ergebnissen Beinahe 30 % der Meldungen auf unserer Internetsicherheits-Helpline betreffen Fälle von Cyber bullying. In den vergangenen zwei Jahren haben wir uns in Polen darauf konzentriert, den verantwor tungsbewussten Umgang mit neuen Technologien bei den Jugendlichen zu fördern. Eltern sprechen nur selten mit ihren Kindern über deren Internet- und Handynutzung, und sie sind sich kaum darüber im Klaren, dass ihre Kinder ebenso gut Täter wie Opfer von Cyberbullying sein können. Durch landesweite Trainingskampagnen versuchen wir, das Bewusstsein dafür zu wecken, dass Familie und Schule eine wichtige Rolle bei der Vorbeugung und im Umgang mit Cyberbullying zukommt. ´ Nobody’s Children Foundation Agnieszka Wrzesien, 28 C 3 Verbesserung von Internetanwendungen – technische Grundlagen und Implementierung von Zusatzmodulen (sog. Widgets), die den Nutzer dabei unterstützen, sich selbst zu schützen Medienkompetenz ist der Schlüssel für eine sichere Nutzung des Internet. Pädago- gische Maßnahmen können jedoch von verschiedenen Technologien begleitet und unterstützt werden. Dadurch kann beispielsweise sichergestellt werden, dass die Nutzer einen vorhandenen Verhaltenskodex akzeptieren und unangemessenes sowie die Sicherheit ge- fährdendes Verhalten vermeiden. Unter Berücksichtigung der technischen Machbarkeit empfiehlt der YPRT, die Sicherheit von Internetanwendungen durch die Implementierung von unterstützenden Zusatzmodulen zu verbessern und so den Selbstschutz der Nutzer zu befördern. C 3.1Status ‚privat‘ als Standardeinstellung von Profilen (mit der Option zum Deaktivieren anstatt zum Aktivieren) C 3.2Unterstützung der Nutzer beim Passwort-Management (d. h. Sicherheitsfrage, Erinnerung, Passwortmanager) C 3.3Möglichkeit, so genannte Tags13 von eigenen Inhalten zu entfernen und ebenso von Inhalten, die von anderen erstellt wurden C 3.4Implementierung eines Meldebuttons auf Webseiten mit nutzergenerierten Inhalten, bei denen Konflikte entstehen und schädliche Inhalte auftreten können; die Meldungen sollten vorzugsweise an bereits existierende Hotlines und Helplines erfolgen C 3.5Pop-Up- oder Mouse-Over-Effekte14 mit Warnhinweisen vor der Preisgabe von privaten Informationen C 3.6Pop-Up- oder Mouse-Over-Effekte mit Warnhinweisen gegen die Verletzung von Menschenrechten oder die Verleumdung, z. B. beim Upload von Bildern „Bist Du sicher, dass dieses Bild für jeden sichtbar im Internet erscheinen soll?“ C 3.7Automatische Löschung von Inhalten nach dem vom Nutzer angegebenen Ablaufdatum 13 - Tags erlauben die Kennzeichnung von Inhalten mit einer inhaltlichen Zuordnung zu anderen im Netz verfügbaren Inhalten 14 - Mouse-Over-Effekte bewirken, dass ein Textfenster angezeigt wird, wenn der Mauszeiger bestimmte Inhalte der Webseite berührt 29 C 3.8Bereitstellung einer Löschfunktion auf allen Webseiten mit nutzergenerierten privaten Daten, durch die der Nutzer von ihm selbst erstellte Inhalte löschen kann (wohlwissend, dass eine vollständige Löschung veröffentlichter Inhalte aufgrund der Möglichkeiten digitaler Vervielfältigung nicht grundsätzlich möglich ist) C 3.9Dauerhafte und nicht entfernbare Auszeichnung von nutzergenerierten Inhalten durch ein Ablaufdatum, das dazu führt, dass der Inhalt automatisch gelöscht wird, selbst dann, wenn er dupliziert oder verschoben wurde C 3.10Bereitstellung von technischer Unterstützung zur Verhinderung des unerwünschten Duplizierens von online veröffentlichten Texten und Bildern C 3.11Hinweis des Nutzers auf die technische Möglichkeit, vor dem Upload von Bildern deren GPS-Daten (so genannte exif-files) zu entfernen, um die ungewollte Preisgabe von zur Lokalisierung geeigneten Daten zu vermeiden C 3.12Sicherstellung, dass passive Lokalisierungsdienste mit GPS-Daten durch Dritte nur mit Genehmigung des Dateninhabers möglich sind C 3.13Deutliche Hinweise für die Nutzer über den Status von Kommunikationsbereichen (privat oder öffentlich) C 3.14Bereitstellung von Wortfiltern für die direkte Kommunikation zwischen den Nutzern (Foren, eCards) in Bereichen, die sich explizit an Kinder als Nutzer richten C 3.15Bereitstellung einer technischen Option für Eltern, das Nutzungsverhalten ihrer Kinder in Bezug auf Zeit, Inhalte und Kommunikation – unter Berücksichtigung der Privatsphäre der Kinder – zu kontrollieren C 3.16Bereitstellung einer Möglichkeit zur Verschlüsselung persönlicher Daten innerhalb einer Anwendung C 3.17Dauerhafte Kennzeichnung für Daten von Nutzern, die bereits generell gegen die Speicherung und Nutzung ihrer Daten Widerspruch eingelegt haben, um sicherzustellen, dass auf diese Daten nicht von einer anderen Quelle aus zugegriffen wird und sie erneut gespeichert werden C 3.18Textbeschreibungen von Werbebannern, damit diese für die Wortlisten von Filtern erkennbar sind C 3.19Einbeziehung der Nutzer-Community in den Prozess der Entwicklung und Implementierung von Sicherheitstools und -maßnahmen 30 C 4 Vereinbarung von Richtlinien durch die Anbieter und Betreiber von Internetdiensten und ‑anwendungen Der YPRT empfiehlt Inhalteanbietern und Betreibern, interne Richtlinien zu vereinbaren, die eine sichere Nutzung ihrer Angebote durch Kinder und Jugendliche gewährleisten. Diese Richtlinien sollten angepasst an ihre Dienstleistungen entwickelt und gemäß den finanziellen, technischen und organisatorischen Möglichkeiten implementiert werden. C 4.1 Richtlinien im Hinblick auf die Nachverfolgung von Nutzermeldungen, einschließlich der Festlegung von Fristen, innerhalb derer eine Reaktion oder Löschung – soweit erforderlich – erfolgen soll © Pixelio C 4.2 Richtlinien im Hinblick auf die Nachverfolgung der Bearbeitung von Nutzerbeschwerden C 4.3 Richtlinien im Hinblick auf den Einsatz von Moderatoren in allen Bereichen einer Plattform, die die direkte Kommunikation mit anderen Nutzern ermöglichen C 4.4 Richtlinien im Hinblick auf den Umgang mit Hilfe‑ und Unterstützungsseiten für die Nutzer, z. B. sollten bei der Suche nach kritischen Begriffen wie Magersucht Hilfeseiten an erster Stelle der Suchergebnisse rangieren C 4.5 Richtlinien zur Kooperation mit Wohlfahrts- und Hilfsorganisationen C 4.6 Richtlinien zur Kooperation zwischen Hotlines, Polizei und Anbietern C 4.7 Richtlinien im Hinblick auf die Speicherung, Vervielfältigung und Verbreitung von Nutzerdaten C 4.8 Richtlinien im Bezug auf den Einsatz und die Verwendung von Werbung C 4.9 Vereinbarungen über die Durchführung von unabhängigen oder internen Kontrollen über die Einhaltung der zuvor genannten Richtlinien Adiconsum engagiert sich im Jugendmedienschutz durch die Unterstützung und den Schutz der Rechte von jugendlichen Nutzern des Internet. Wir führen Aufklärungskampagnen für einen verantwortungs bewussten Umgang mit dem Medium und anderen neuen Technologien für Jugendliche, Eltern und Lehrer durch und geben Broschüren und Materialien zur Onlinesicherheit heraus. Institutionen und Unter nehmen, die direkten Einfluss auf die angemessene Mediennutzung von Jugendlichen nehmen können, erinnern wir im permanenten Dialog daran, dass sie ihre Verantwortung wahrnehmen und einen Beitrag zu mehr Internetsicherheit leisten. Paola Pendenza, Adiconsum 31 C 5 Medienkompetenz Der YPRT fordert die Verbesserung der Medienkompetenz von Kindern und Jugend- lichen sowie von Eltern und anderen Erziehungsverantwortlichen. Medienkompetenz umfasst die Kenntnis von digitalen Medien und unterstützenden Technologien für den Jugendschutz sowie die Fähigkeit, diese nutzbringend einzusetzen. Die Förderung der Medienkompetenz ist der beste Schutzschild für Kinder und Jugendliche im Informa- tionszeitalter. Der YPRT empfiehlt, pädagogische Maßnahmen zur Verbesserung der Medienkompetenz im Hinblick auf alle Um Kinder vor problematischen In halten und Angeboten im Internet effektiv schützen zu können, ist es neben technischen Maßnahmen des Jugendschutzes aus Sicht des Internet-ABC vor allem wichtig, Kinder in ihrer Online-Kompetenz zu stärken. Nur wenn Kinder zum Beispiel wissen, wie sie sich sicher im Chat verhalten, sie ihre Daten schützen und Angebote kennen, die für sie spannend und gleichzei tig kindgerecht sind, können sie die Potentiale, die das Internet bietet, ausschöpfen. Das Internet-ABC will mit seinen Angeboten Kinder und ihre Eltern und Pädagogen stärken, sich das Netz kompetent zu erobern und Risiken zu vermeiden. Mechthild Appelhoff, Internet-ABC technischen Geräte für den Internetzugang und alle unterstützenden Technologien zu fördern. C 5.1 Verbesserung der Medienkompetenz im Hinblick auf alle technischen Geräte für den Internetzugang (mit besonderem Augenmerk auf sich neu entwickelnde Bereiche wie zurzeit der mobile Zugang) C 5.2 V erbesserung der Medienkompetenz durch unterstützende Technologien und die Nutzung unterstützender Zusatzmodule, so genannter Widgets C 5.3 V erbesserung der Medienkompetenz im Hinblick auf die Meldung von illegalen, schädlichen oder unerwünschten Inhalten und Belästigungen an Hotlines und Helplines C 5.4 V erbesserung der Medienkompetenz im Hinblick auf die kritische Reflektion von Inhalten C 5.5 erbesserung der Medienkompetenz im Hinblick auf den V Schutz der Privatsphäre und der persönlichen Daten C 5.6 E inrichtung einer ‚Online-Schule für ein sicheres Internet‘ (Webseite und Online-Lerntools) in enger Zusammenarbeit mit bereits vorhandenen Online-Angeboten C 5.7 Ausbildung junger Internetexperten in Schulen und Einrichtungen der sozialen Jugendarbeit C 5.8 Sicherheit im Internet als Unterrichtsfach in der Schule / fächerübergreifende Einbindung des Themas Internetsicherheit in den Unterricht 32 C 5.9 Einrichtung von Mediationsprozessen für Bullying Opfer und Täter C 5.10 Bildungsangebote für eine digitale Bürgergesellschaft, d. h. Befähigung zur autonomen und verantwortungsbewussten Nutzung der Technologie C 5.11 Internetsicherheit als Gegenstand der Ausbildung von Lehrern und Jugendsozialarbeitern C 5.12 Ausbildungs‑ und Trainingsangebote für Mediatoren und Moderatoren C 5.13 Ausbildungs‑ und Trainingsangebote für Menschen, die in leitender Funktion an Schulen oder in anderen Bereichen mit Kindern und Jugendlichen arbeiten C 5.14 W eiterbildung für Schulleiter zum Aufbau eines Sicherheitskonzepts an ihren Schulen und zur Implementierung der Voraussetzungen für Sicherheit, Wahrung der Privatsphäre, Datenschutz und Medienkompetenz in allen Arbeitsprozessen C 5.15 Entwicklung und Implementierung von Hausregeln hinsichtlich der Nutzung von digitalen Medien in pädagogischen In stitutionen und öffentlichen Internetzugangsorten unter Einbeziehung von Jugendlichen in den Prozess der Entwicklung C 5.16 Bereitstellung von geeignetem Material für die Verbesserung der Medienkompetenz in enger Zusammenarbeit mit bereits vorhandenen Angeboten C 5.17 Motivierung von Kindern und Jugendlichen, sich bei Themen der Sicherheit im Internet zu engagieren, z. B durch die Beteiligung an Wettbewerben und an der Entwicklung von Materialien Aufklärungsarbeit zum Thema Internetsicherheit ist von großer Bedeutung für die Mannerheim League for Child Welfare. Um die digitale Spaltung zwischen den Generationen zu überwin den, verfolgen wir den Ansatz eines generationenübergreifenden Dialogs. Ein wesentliches Merkmal unserer Strategie ist es, Erwachsene mit den neuen Möglichkeiten der Online- und Mobilkommunikation vertraut zu machen und das Verständnis für die damit potentiell verbun denen Risiken und negativen Auswirkungen zu fördern. Wir setzen dabei auf junge Menschen als Trainer für Eltern und Lehrer und den Austausch von Wissen und Erfahrungen. Sanna Harakkamäki , The Mannerheim League for Child Welfare 33 C 6 Aufklärung und Bewusstseinsbildung Für die Kompetenzverbesserung von Bürgern im Informationszeitalter sind Aufklä- rung und Bewusstseinsbildung von entscheidender Bedeutung. Die Sensibilisierung für die Risiken und Bedrohungen, aber auch für die Möglichkeiten, die das Internet bietet, muss für alle selbstverständlich sein. Die YPRT-Mitgliedsorganisationen betonen ganz besonders die positiven Wirkungen der Internetnutzung für die Entwicklung junger Menschen und verpflichten sich, in allen gesellschaftlichen Gruppen unabhängig von Alter, Geschlecht und ethnischer Zugehörigkeit die Aufklärung und Bewusstseinsbildung zu fördern. C 6.1 Besondere Betonung der positiven Wirkungen der Internetnutzung auf die Entwicklung junger Menschen C 6.2 Durchführung von Aufklärungs‑ und Informationstagen wie dem Safer Internet Day unter Einbeziehung von Jugendlichen C 6.3 Bereitstellung von Aufklärungsmaterialien, gedruckt und online für • Kinder und Jugendliche • Erziehungsverantwortliche • Personen mit Migrationshintergrund • Internet Service Provider • Inhalteanbieter • Anbieter von Gemeinschaftsplattformen C 6.4 Durchführung von Kampagnen zur Aufklärung und Bewusstseinsbildung unter Einbeziehung junger Leute C 6.5 Bekanntmachung der Angebote von Hotlines und Helplines C 6.6 Aufklärung und Bewusstseinsbildung im Hinblick auf die Bildung der digitalen Bürgergesellschaft 34 C 7 Forschung Forschung ist die Grundlage für die Entwicklung technischer Instrumente und pädagogischer Strategien. Daher tritt der YPRT dafür ein, die aktuelle Forschung für alle Aktivitäten im Hinblick auf die Internetsicherheit zu unterstützen, zu fördern und zu berücksichtigen. C 7.1 U nterstützung quantitativer und qualitativer Studien über das Online-Verhalten von Kindern und Jugendlichen C 7.2 Förderung der vorhandenen Forschung und Unterstützung des europaweiten Austauschs von Wissenschaftlern im Bereich der Medienaneignung durch Kinder und Jugendliche C 7.3 U nterstützung von Studien zur Medien anpassung von Kindern und Jugendlichen C 7.4 Formative Evaluation der Nutzung digitaler Medien C 8 Rechtliche Regelungen Jugendmedienschutz wird durch die Konvergenz der Medien auch in Zukunft weiter an Bedeutung gewinnen. Wir glauben, dass Selbstkontrolle der Unternehmen dabei ein ganz wesentlicher Bau stein ist. So hat die FSM mit ihren Mitgliedern in den vergangen Jahren zahlreiche branchenspezifi sche Verhaltenskodizes entwickelt, um den jeweili gen Anforderungen an den Jugendmedienschutz gemeinsam gerecht werden zu können. Sabine Frank, Geschäftsführerin der Freiwilligen Selbstkontrolle Multimedia – FSM Auf der Grundlage bereits vorhandener Gesetze und unter Berücksichtigung der Unterschiede nationalen Rechts und des kulturellen Hintergrunds empfiehlt der YPRT, vor- handene Gesetze und Regelungen im Hinblick auf die Definition von illegalen Inhalten und für Kinder schädlichen Inhalten, Datenschutz bzw. Regelungen des Rechts auf Löschung nutzergenerierter Inhalte und Profile zu harmonisieren und konkretisieren. C 8.1 Regelung des Rechts auf die Löschung von nutzergenerierten Inhalten und Profilen C 8.2 Regelung des Rechts auf Schutz der Privatsphäre C 8.3 Regelung der Verfolgung von Online-Straftätern C 8.4 Harmonisierung der juristischen Definition von illegalen Inhalten 35 D · Ressourcen Code for the ChatCheck Badge by the Association of Danish Internet Media (2007) Comparing Children’s Online Activities and Risks across Europe. A Preliminary Report Comparing Findings for Poland, Portugal and UK, June 2007 Crisp Thinking Group Ltd. (2005). Anti-Grooming Engine™. Retrieved January 21, 2009 from http:// www.crispthinking.com/anti-grooming-engine.htm Internet Filters, a Public Policy Report by the Brennan Center for Justice, 2006 ENISA - Children on virtual worlds – What parents should know, September 2008 JFF – Institut für Medienpädagogik in Forschung und Praxis. Untersuchung der Akzeptanz des Jugendmedienschutzes aus der Perspektive von Eltern, Jugend lichen und pädagogischen Fachkräften. Eigenständige Teilstudie des JFF zur Analyse des Jugendmedien schutzsystems, München, August 2007 ENISA - Photo Sharing, Wikis, Social Networks –Web 2.0 and Malware 2.0, EU Agency issues Position Paper on security for the next generation web, December 2008 Luxembourg Safer Internet Helpline Project 2006, para.1, Definition von Filtersoftware [Electronic version]. Retrieved January 21, 2009 from http://www. lusi.lu/index.php?id=16&L=1 ENISA Position Paper No.1: Security Issues and Recommendations for Online Social Networks, October 2007 Media Literacy – An Alternative to censorship by the Free Expression Policy Project, 2003 ENISA - Technology-induced challenges in Privacy & Data Protection in Europe, October 2008 Euro Media Literacy: Charter for Media Literacy (2005) EurActiv.com (2008). Web 2.0: New opportunities, new risks. Retrieved September 4, 2008 from http://www.euractiv.com/en/infosociety/web-20new-opportunities-new-risks/article-171600 Eurobarometer (2006). Eurobarometer on Safer Internet: quantitative surveys 2005-2006. Retrieved January 27, 2009 from http://ec.europa.eu/information_ society/activities/sip/eurobarometer/index_en.htm Eurobarometer (2007). Eurobarometer on Safer Internet for Children: qualitative study 2007. Retrieved January 21, 2009 from http://ec.europa.eu/information_ society/activities/sip/eurobarometer/index_en.htm Flash Eurobarometer survey (2008). Towards a Safer Use of the Internet for children in the EU – a parents’ perspective. Retrieved January 27, 2009 from http:// ec.europa.eu/information_society/activities/sip/eurobarometer/index_en.htm 36 Institute for Public Policy Research (ippr): Behind the Screen, the hidden life of youth online, March 200810-20 Mercury Interactive Corporation (2004). SiteScope User‘s Guide, Version 7.9.5.0. para. 14, Monitoring. Retrieved January 21, 2009 from http://mon15ny450. doubleclick.net/SiteScope/docs/SiteScopeTerms.htm Niedersächsische Landesmedienanstalt. Helmut Volpers (Hrsg.). Funktionsweise des Internets und sein Gefährdungspotenzial für Kinder und Jugendliche. Ein Handbuch zur Medienkompetenzvermittlung. NLM-Band 17, 2004 Ofcom. Social Networking. A quantitative and qualitative research report into attitudes, behaviours and use, April 2008 Paris Agenda or 12 Recommendations for Media Education, Paris, UNESCO, 21-22 June 2007 Photopatrol (2007). Mehr Schutz und Erfolg für Ihre Bilder durch digitale Signaturen. Retrieved January 21, 2009 from http://www.photopatrol.eu/fileadmin/templates/Hilfe_Texte/Informationen_ueber_Photopatrol_ Download_-_V.1.pdf Protecting Children Using the Internet – Opinion by the European and Social Committee, May 2008 Public consultation of the European Commission in regard to Age Verification, Cross Media Rating and Classification, Online Social Networking, July 2008 Universität Leipzig. Medienkonvergenz Monitoring Report 2008, Jugendliche in konvergierenden Medienwelten Recommendation CM/Rec (2008) 6 of the Committee of Ministers to member states on measures to promote the respect for freedom of expression and information with regard to Internet filters (May 2008) Wikipedia Encyclopaedia (2009). Webmonitoring. Retrieved January 21, 2009 from http://de.wikipedia.org/ wiki/Webmonitoring Resolution on Children’s Online Privacy (30th International Conference of Data Protection and Privacy Commissioners – Strasbourg), October 17, 2008 Resolution on Privacy Protection in Social Network Services (30th International Conference of Data Protection and Privacy Commissioners – Strasbourg), October 17, 2008 Safer Children in a Digital World – The report of the Byron Review, March 2008 Schulen ans Netz e.V. IT works. Jugendmedienschutz Filterlösungen im schulischen Umfeld, Bonn 2005 SIP Benchmark Synthesis Report 2007 Edition by Deloitte Enterprise Risk Services, December 2007 SIP Benchmark Synthesis Report 2008 Edition by Deloitte Enterprise Risk Services, November 2008 Good practice guidance for the providers of social networking and other user interactive services 2008, March 2008 Good Practice Guidance for Moderation of Interactive Services for Children, December 2005 Good practice guidance for search service providers and advice to the public on how to search safely, December 2005 Good Practice Models and Guidance for the Internet Industry On: Chat Services, Instant Messaging, Web-based Services, January 2003 United Nations Convention on the Rights of the Child signed 1989 37 E· Bestandsaufnahme Selbstregulierung E 1 Organisationen der Selbstregulierung in Europa Name der Organisation Typ der Organisation geografischer inhaltlicher URL* WirkungsWirkungsbereich bereich Austrian E-Commerce Trust Mark Association Austria web Internet Ombudsmann Association Austria web http://www.ombudsmann.at/ Asociace provozovatelu˚ mobilních sítí Association of Mobile Network Operators Czech Republic mobile http://www.apms.cz/Default. aspx?ModuleId=379&ID=156 Sdružení pro internetovou ˇ z.s.p.o. reklamu v CR, (SPIR) Association of Internet advertising Czech Republic web http://www.spir.cz Association of eCommerce Association Czech Republic web http://www.certifikovanyobchod.cz/o-apek-certifikaci Media Council for Children and Young People Association Denmark movies http://www.medieraadet.dk/ European Internet Coregulation Network Association Europe web http://network.foruminternet. org/ Interactive Software Federation of Europe (ISFE) Association of Companies Europe interactive software http://www.isfe-eu.org/ Freiwillige Selbstkontrolle Multimedia-Dienste anbieter e.V. Association of Companies Germany web www.fsm.de Freiwillige Selbstkontrolle Fernsehen e.V. Association of Companies Germany TV www.fsf.de Spitzenorganisation der Filmwirtschaft e.V. Association of Companies Germany movies www.spio.de Unterhaltungssoftware Selbstkontrolle Association of Companies Germany interactive software www.usk.de Deutscher Presserat Association of Companies Germany all media http://www.presserat.de/ Deutscher Werberat Association of Companies Germany advertisement http://www.werberat.de/ Freiwillige Selbstkontrolle Telefonmehrwertdienste e.V. Association of Companies Germany Beschwerdestelle / Deutschland sicher im Netz Working group of AsGermany sociation of Companies http://www.fst-ev.org/ web *Das Verzeichnis steht im Internet unter www.yprt.eu mit anklickbaren URLs zur Verfügung. 38 http://www.guetezeichen.at/ http://www.eco.de/servlet/ PB/menu/1020202_l1/index. html Name der Organisation Typ der Organisation geografischer inhaltlicher URL WirkungsWirkungsbereich bereich ICRA Deutschland Association of Companies Germany web http://www.eco.de/servlet/ PB/menu/1211767_l1/index. html Kommission für Jugendmedienschutz Authority Germany all media http://www.kjm-online.de/ public/kjm/ Bundesprüfstelle für jugendgefährdende Medien Federal Authority Germany all media http://www.bundespruefstelle. de/ Freiwillige Selbstkontrolle der Chatbetreiber Association of Companies Germany web http://www.fsm.de/de/Chat Automaten-SelbstKontrolle (ASK) Association Germany interactive software http://www.automaten-selbstkontrolle.de Arbeitsgemeinschaft der Landesmedienanstalten (ALM) Association Germany all media http://www.alm.de Greek Self-Regulating Organisation for Internet Content - SAFENET NGO Greece web http://www.safenet.org.gr/ National Committee of Users (CNU) Association Italy all media http://www.agcom.it/cnu/ ADUC - Associazione per i Diritti degli Utenti e Consumatori Association for the Rights of Consumers Italy all media http://www.aduc.it/ Netherlands Institute for the Classification of Audio-visual Media Association of Companies Netherlands all media http://www.kijkwijzer.nl/ ECP.NL Public-private not for profit organisation Netherlands Stichting Reclame Code (SRC) Advertising Code Foundation Netherlands advertisement http://www.reclamecode.nl/ Rada Reklamy (Advertising Council) Polish Advertising Industry Poland advertisement http://www.radareklamy.org hotline Spletno oko Non-profit project (Internet) Slovenia web https://www.spletno-oko.si/ Slovenian Consumers’ Association Non-profit organisation (Consumers’ rights using Internet, mobile phones and computers) Slovenia all media http://www.zps.si/ APEK (Post and Electronic Communications Agency of the Republic of Slovenia) Independent Regulatory Body (electronic communications and postal market) Slovenia all media http://www.apek.si/ http://www.ecp.nl/ 39 40 Name der Organisation Typ der Organisation geografischer inhaltlicher URL WirkungsWirkungsbereich bereich Association Vita Activa Association Slovenia all media Slovenian Advertising Chamber Non-profit association of legal and physical persons (companies and individuals) regulation of media advertising Slovenia advertisement http://www.soz.si/ Asociación Española de Distribuidores y Editores de Software de Entretenimiento Spain Spanish Association of Editors and Whole salers of Entertainment Software Asociación para la Autoregulación de la Comunicación Comercial “Autocontrol”. Spanish advertising self-regulation organisation Spain advertisement http://www.autocontrol.es/ Agencia de Calidad de Internet Internet Quality Agency Spain web interactive software http://www.drustvo-vitaactiva. si/401.html http://www.adese.es http://www.iqua.net Internet Watch Foundation Charity UK web http://www.iwf.org.uk/ OFCOM - Office of Communication Public regulation Authority UK all media http://www.ofcom.org.uk/ about/csg/ofcom_board/code/ Home Office Task Force on Child Protection on the Internet Task Force UK web http://police.homeoffice.gov. uk/operational-policing/crimedisorder/child-protectiontaskforce Family Online Safety Institute Association UK web http://www.fosi.org/icra E 2 Instrumente der Selbstregulierung in Europa Name des Instruments Typ des Dokuments geografischer inhaltlicher WirkungsWirkungsbereich bereich URL* Spam code of conduct of ISPA Code of Conduct Austria web http://www.ispa.at/downloads/COC_ spam_english.pdf Journalists’ Code of Conduct Code of Conduct Cyprus journalistic ethics http://www.mmc2000.net/docs/ leggi/CYPRUS.pdf Kodex Etického Nákupu Vodafonu Code of ethical purchase Czech Republic mobile http://www.vodafone.cz/pdf/kodex_cz.pdf ˇ Etický kodex o užívání vereˇ jných informacních služeb ˇ pro šírení sázkových služeb Code of Conduct Czech Republic gambling http://web01.sazka.cz/LoterieAHry/ docDetail.aspx?docid=19015601&d octype=ART&&cpi=1&highlight=eti ck_%20kodex Evropská Asociace Státních ˇ Loteríi A Toto Spolecností Code of Conduct Czech Republic web http://www.sazka.cz/o-nas/vice-osazka/zakony/kodex.php Code for the ChatCheck Badge Code of Conduct Denmark web http://www.fdim.dk/?pageid=52 European Framework for Safer Mobile Use by Younger Teenagers and Children Framework Europe mobile http://www.gsmworld.com/gsmeurope/documents/eur.pdf Rec. on measures to promote the freedom of expression and information with regard to Internet filters Recommendations Europe web http://www.coe.int/ Journalists’ Code of Conduct Code of Conduct Europe all media http://www.presswise.org.uk ISPA Code of Conduct Code of Conduct Europe journalistic ethics http://www.ispa.org.za/code/code_ of_conduct.shtml Code of Conduct for search engines / Verhaltenssubkodex für Suchmaschinenanbieter der FSM Sub - Code of Conduct Germany web http://www.fsm.de/en/SubCoC_ Search_Engines Code of Conduct of Mobile Phone Service Providers in Germany for the Protection of Minors Using Mobile Phones Sub - Code of Conduct Germany mobile http://www.fsm.de/en/Subcode_of_ Conduct_mobile Code of Conduct of Chat Providers in the FSM Sub - Code of Conduct Germany web http://www.fsm.de/inhalt.doc/SubCode_Chat.pdf NICAMs regulations for film, DVD, TV and Mobile Operators Sub Statutes Netherlands all media http://www.kijkwijzer.nl/ *Das Verzeichnis steht im Internet unter www.yprt.eu mit anklickbaren URLs zur Verfügung. 41 42 Name des Instruments Typ des Dokuments geografischer inhaltlicher WirkungsWirkungsbereich bereich URL Richtlijn voor chatrooms Guidelines Netherlands web http://www.chatinfo.nl/ Dutch Advertising Code Code Netherlands advertisement http://www.reclamecodecommissie. nl/bijlagen/dutch_advertising_code.pdf Code of Ethics in Advertising Code of Conduct Poland advertisement http://www.radareklamy.pl/img_in// PLIKI/Kodeks%20Etyki%20Reklamy%20Eng.pdf Slovenian Code of Advertising Practice Code of Conduct Slovenia advertisement http://www.soz.si/oglasevalsko_razsodisce/slovenski_oglasevalski_kodeks/ Internet Service Providers’ Association Code of Conduct Code of Conduct South Africa web http://www.ispa.org.za/code/code_ of_conduct.shtml Convenio Marco De Colaboración Para La Promoción Del Uso Seguro De Internet Por La Infancia Y La Juventud Agreement Spain web not digitally available Código de autorregulación de la publicidad de alimentos dirigida a menores, prevención de la obesidad y salud Food advertis- Spain ing for children and obesity prevention self-regulation code advertisement http://www.fiab.es/datos/1/PAOS_1676.pdf Código de conducta de la industria europea del software interactivo relativo a la clasificación por edades, el etiquetado, la promoción y la publicidad de productos de software interactivo. Code of Conduct Spain interactive software http://www.adese.es/web/criterios_ autoregulacion.asp Código de Conducta Publicitaria Code of Conduct Spain journalistic ethics http://www.autocontrol.es/pdfs/ Cod_conducta_publicitaria.pdf Código Ético de Comercio Electrónico y Publicidad Interactiva Code of Conduct Spain web http://www.confianzaonline.org/codigoetico/codigoetico.php Código Deontológico para Publicidad Infantil de la Asociación Española de Fabricantes de Juguetes, y Unión de Consumidores de España Consumers Code of Ethics Spain advertisement http://www.aefj.es/template. php?id=91 Código de Autorregulación sobre contenidos televisivos e infancia. Self-regulation code on TV content for children Spain TV http://www.tvinfancia.es/Textos/ CodigoAutorregulacion/Codigo.htm Name des Instruments Typ des Dokuments geografischer inhaltlicher WirkungsWirkungsbereich bereich URL Convenio de Autorregulación para promover el buen uso de Internet en España Self-regulation code for the promotion of an appropriate use of Internet in Spain Spain web http://www.aui.es/../biblio/documentos/legislacion/proteccion_menores/ convenio/tex_conv.htm Código deontológico de la Agencia de Calidad de Internet Internet Quality Agency Code of Ethics Spain web http://www.iqua.net/Codigos_de_ conducta/Codigo_de_conducta/?go =WWiW6aWP3cIUyUj7fiM3LUP2T C+M0m3NphIdSA2vOCaqmvpV3B PkG0o8 Convenio Marco De Colaboración Para La Seguridad Del Menor Committment Spain Code of Practice for the self-regulation of new forms of content on mobiles Code of Practice UK mobile http://www.mobilebroadbandgroup. com/content-code.pdf Self-regulatory Code for the responsible selling of mobile telephony Code of Practice UK mobile http://www.mobilebroadbandgroup.com/documents/mbg_cop_ sm_250707_f.pdf Industry Code of Practice for the use of mobile phone technology to provide passive location services in the UK Code of Practice UK mobile http://www.mobilebroadbandgroup. com/documents/UKCoP_location_ servs_210706v_pub_clean.pdf Good Practice Guidance for the Moderation of Interactive Services for Children Guidelines UK web http://police.homeoffice.gov.uk/ news-and-publications/publication/ operational-policing/moderation-document-final.pdf?view=Binary Good practice guidance for search service providers and advice to the public on how to search safely Guidelines UK web http://police.homeoffice.gov.uk/ news-and-publications/publication/ operational-policing/search-andadvice-public.pdf?view=Binary Promoting Internet Safety Through Public Awareness Campaigns Guidance for Using Real Life Examples Involving Children or Young People Guidelines UK web http://police.homeoffice.gov.uk/ news-and-publications/publication/ operational-policing/RealLifeExamples.pdf?view=Binary Good Practice Models and Guidance for the Internet Industry On: Chat Services, Instant Messaging, Web-based Services Guidelines UK web http://police.homeoffice.gov.uk/ news-and-publications/publication/ operational-policing/ho_model. pdf?view=Binary 43 44 Name des Instruments Typ des Dokuments geografischer inhaltlicher WirkungsWirkungsbereich bereich URL Television Advertising of Food and Drink Products to Children” Code UK advertisement http://www.ofcom.org.uk/consult/ condocs/foodads_new/statement/ BCAP Spread Betting Advertising Rules and BCAP Radio Advertising Code Code UK advertisement http://www.cap.org.uk/NR/ rdonlyres/6C6CECA6-CCCB-44B7A146-460D2726BC48/0/BCAPSpreadBettingRadioAdvertisingRules. pdf BCAP Rules on the Scheduling of Advertising Rules UK advertisement http://www.asa.org.uk/NR/ rdonlyres/7F763788-6A51-4A73B35B-C60346FD5F6C/0/BCAPRulesontheSchedulingofTelevisionAdvertisements_20080108.pdf Advertising Standards Code for Text Services Code UK BCAP Guidance to Broadcasters on the Regulation of Interactive Television Services Guidelines UK TV http://www.asa.org.uk/NR/rdonlyres/D41345A2-31B5-4149-879B69A08A64879C/0/BCAP_Guidance_ on_Interactive_TV.pdf BCAP Advertising Guidance Notes Notes to Guidlines UK advertisement http://www.clearcast.co.uk/clearcast/ notes_of_guidance/Appendix+3+Guid elines+for+Superimposed+Text+from +BCAP+Guidance+on+Text+and+Su btitling+in+Television.htm Good practice guidance for the providers of social networking and other user interactive services 2008 Guidance UK web http://police.homeoffice.gov.uk/ Editors’ Code of Practice Code of Practice UK journalistic ethics http://www.pcc.org.uk/ CAP and BCAP Gambling Advertising Rules and BCAP Spread Betting Rules Rules UK web http://www.cap.org.uk/NR/ rdonlyres/8C9D2140-EE00-424F9E67-CE1914B3DA71/0/FINALCAPBCAPGamblingRules.pdf http://www.asa.org.uk/NR/ rdonlyres/3B4358E5-85CC-40EEA2DD-EE883BBABB6E/0/BCAPCodeforTextServices_20080108.pdf F· Bestandsaufnahme rechtlicher Regelungen in Europa EU Mit- Jugendschutz / glieds- Jugendmedienschutz staaten Quelle * Austria Pornografiegesetz http://www.ris.bka.gv.at/Dokumente/Bundesnormen/NOR12058546/ NOR12058546.pdf 9 different youth protection laws (including youth media protection) of the Federal States http://www.bmwfj.gv.at/BMWA/Schwerpunkte/Jugend/Jugendschutz/ default.htm Anti-Stalkinggesetz § 107a Strafgesetzbuch. Tatbestand der “beharrlichen Verfolgung“ http://www.ris.bka.gv.at/GeltendeFassung.wxe?QueryID=Bundesnormen &Gesetzesnummer=10002296 Belgium Belgian Penal Code Articles 380 till 383 http://www.stopchildporno.be/index.php?pid=13 Bulgaria Child protection Act from 03.04.2003 http://www.sacp.government.bg/index_en.htm Cyprus Czech Republic Denmark Estonia Finland France http://www.lexadin.nl/wlg/legis/nofr/eur/lxwecyp.htm Act No. 359/1999 Coll., on the socio-legal protection of children, as amended (Act No. 501/2004 Coll., comes into effect 1.1.2006) http://www.czso.cz/csu/cizinci.nsf/engo/gender_odkazy-links_with_legislative Act No. 94/1963 on family http://mujweb.cz/www/vaske/rodina.htm Act No. 108/2006 on social services http://www.ilo.org/dyn/natlex/natlex_browse.details?p_lang=en&p_ country=CZE&p_classification=15.05&p_origin=COUNTRY&p_ sortby=SORTBY_COUNTRY Act No. 218/2003 on legal responsibility of youth and judicature in cases of youth http://unpan1.un.org/intradoc/groups/public/documents/NISPAcee/UNPAN012622.pdf Act No. 140/1961 Criminal law § 205a „Receiving of child pornography“ § 205b „Misuse of children for pornography production“ http://web.mvcr.cz/archiv2008/prevence/priority/kszd/english.html Act No. 500/2004 Administrative law http://www.nssoud.cz/default.aspx?cls=art&art_id=1 The Marketing Practices Act No. 1389 of 21. December 2005, latest amended in 2007 http://www.forbrug.dk/english/dco/lawsandacts/marketing-practises-act/ Radio and Television Broadcasting Act No. 338 of 11 April 2007 http://www.kum.dk/sw4507.asp Youth Work Act http://www.hm.ee/index.php?148615 Juvenile Sanctions Act http://www.hm.ee/index.php?149399 Hobby Schools Act http://www.hm.ee/index.php?149396 Child Welfare Act from 05.08.1983 http://www.finlex.fi/pdf/saadkaan/E9830683.PDF Act on the Classification of Audiovisual Programmes (L 775/2000) from 25.08.2000 http://www.vet.fi/english/lait_kuvaohjelmien_tarkastaminen.php Finish Government’s Child and Youth Policy Programme 2007–2011 (Finish Ministry of Education) http://www.minedu.fi/OPM/Julkaisut/2007/Lapsija_nuorisopolitiikan_ kehittamisohjelma_2007-2011?lang=en Penal code http://www.legifrance.gouv.fr/html/codes_traduits/code_penal_textan.htm separate bills regarding youth protection for different media. No specific regulation for youth media protection http://www.legifrance.gouv.fr/ *Das Verzeichnis steht im Internet unter www.yprt.eu mit anklickbaren URLs zur Verfügung. 45 EU Mit- Jugendschutz / glieds- Jugendmedienschutz staaten Quelle Germany Youth Protection Act (2002) http://www.bmfsfj.de/bmfsfj/generator/Kategorien/Service/themenlotse,did=12862.html Interstate Treaty for the Protection of Minors from Harmful Content in the Media (2003) http://www.bmfsfj.de/bmfsfj/generator/Kategorien/Service/themenlotse,did=12862.html LAW NO. 1729 Combat against the spread of drugs, protection of youth and other provisions http://www.unodc.org/enl/showDocument.do?documentUid= 446&node= docs&country=GRE&cmd=add Penal Code http://www.interpol.int/Public/Children/SexualAbuse/NationalLaws/CsaGreece.pdf separate bill for youth protection from the National Radio and TV Council No source General information on legal regulation http://www.kep.gov.gr/portal/page/portal/MyNewPortal?lng=us http://old.mfa.gr/english/greece/today/media/internet.html Hungary Act I of 1996 on Radio and Television Broadcasting (Media Act) http://www.helsinki.hu/docs/Act%20I%20of%201996.pdf Ireland Criminal Justice Act 2008 http://www.bailii.org/cgi-bin/markup.cgi?doc=/ie/legis/num_act/2008/ a0708.html&query=Youth+Media+Protection&method=all Italy Codice del consumo (D.lgs. 206/2005) http://www.altalex.com/index.php?idstr=39&idnot=33366 Gentiloni’s decree (against online pedo-pornographic materials through a blocking filter on the basis of a national black list provided by LEA to ISP (Italian Ministry of Communication) http://www.saferinternet.org/ww/en/pub/insafe/news/articles/0707/it3. htm http://www.comunicazioni.it/361-381.html http://www.lexadin.nl/wlg/legis/nofr/eur/lxweita.htm Bill on video games http://www.comunicazioni.it/binary/min_comunicazioni/news_eng/Parliamentary%20Bill%20on%20Regulations%20for%20the%20Protection%20 of%20Children%20in%20Film%20Viewing%20and%20use%20of%20 Videogames.pdf Personal Data Protection Code, Legislative Decree no. 196 dated 30 June 2003 http://www.garanteprivacy.it/garante/document?ID=1219452 Legislative Decree No. 345 Of 4 August 1999 Implementing The Directive No. 94/33 EC On The Protection Of Young People At Work http://www.ilo.org/dyn/natlex/docs/WEBTEXT/54507/65185/E99ITA01. htm bill 6 February 2006, n. 38 against pedo- pornography and child sex abuse (the bill affords also online aspect of these issues), http://www.edri.org/edrigram/number5.1/italy_blocking Greece bill 3 august 1998 n. 269 against child prostitution, child pornography and sexual tourism bill 15 February 1996 n. 66 on sex violence against children Latvia Lithuania 46 Children’s Rights Protection Law http://www.humanrights.lv/doc/latlik/bern.htm Advertising Law (20.12.1999) http://www.kp.gov.lv/uploaded_files/ENG/E_likumR.pdf Youth Law http://www.bm.gov.lv/eng/regulatory_enactment/regulatory_ enactment/?doc=10753 Law On Fundamentals Of Protection Of The Rights Of The Child http://www.litlex.lt/Litlex/Eng/Frames/Laws/Documents/359.HTM EU Mit- Jugendschutz / glieds- Jugendmedienschutz staaten Quelle Luxembourg Loi sur la liberté d’expression dans les medias (Juni 2004): Chapitre V/Section 5: De la protection des mineurs http://www.legilux.public.lu/leg/textescoordonnes/compilation/recueil_ lois_speciales/MEDIAS.pdf Malta Criminal Code http://docs.justice.gov.mt/lom/legislation/english/leg/vol_1/chapt9.pdf Electronic Commerce Act: Article 25.1.i http://www.lexadin.nl/wlg/legis/nofr/eur/lxwemal.htm Broadcasting Code for the Protection of Minors (Sept.2001) (350.05: subsidiary legislation on broadcasting act) http://docs.justice.gov.mt/lom/Legislation/English/SubLeg/350/05.pdf Dutch Media Act http://www.lexadin.nl/wlg/legis/nofr/eur/arch/ned/mediaact.pdf The Media Decree http://www.lexadin.nl/wlg/legis/nofr/eur/arch/ned/mediadecree.pdf Dutch Advertising Code: B: Code for advertising directed at children or young people (Article 5 and 6) http://www.reclamecode.nl/bijlagen/dutch_advertising_code.pdf Criminal Code; Article 240a http://www.thefuturegroup.org/youwillbecaught/law_Netherlands.html Polish Penal Code 202 http://www.internationalresourcecentre.org/missingkids/servlet/ PageServlet?LanguageCountry=en_X2&PageId=3428 Netherlands Poland http://www.era.int/domains/corpus-juris/public_pdf/polish_penal_code2. pdf Portugal http://www.lexadin.nl/wlg/legis/nofr/eur/lxwepor.htm Romania http://www.lexadin.nl/wlg/legis/nofr/eur/lxwerom.htm Slovakia Slovenia http://www.lexadin.nl/wlg/legis/nofr/eur/lxweslw.htm Constitution of the Republic of Slovenia; Article 56 http://www.up-rs.si/up-rs/uprs‑eng.nsf/dokumentiweb/063E5907BE5B67 9CC1256FB20037658C?OpenDocument Public Media Act http://www.mk.gov.si/si/postopki/mediji/vpis_v_register_tujih_dopisnikov_in_dopisnistev/navodila_eng/?type=98 Spain Ley Organica 1/1996 de 15/1/96 http://vlex.com/vid/ley-organica-codigo-penal-126987 Sweden The Children’s Ombudsman Act http://www.bo.se/adfinity.aspx?pageid=86 United Kingdom Protection of Children Act 1978 (England and Wales) http://www.iwf.org.uk/police/page.22.htm Sex Offences Act 2003 (SOA 2003): http://www.iwf.org.uk/police/page.22.htm Civic Government (Scotland) Act, 1982 http://www.iwf.org.uk/police/page.22.htm Obscene Publications Act 1959 & 1964 http://www.iwf.org.uk/police/page.22.htm Police and Justice Act 2006 (Section 39 and Schedule 11) http://www.iwf.org.uk/police/page.22.htm Public Order Act 1986 http://www.iwf.org.uk/police/page.22.htm 47 Europäische Regulierungen Jugendschutz / Jugendmedienschutz 48 Quelle Framework decision on combating the sexual exploitation of children and child pornography http://europa.eu/scadplus/leg/en/lvb/l33138.htm Green Paper: Protection of minors and human dignity in audiovisual and information services (from 1996) http://europa.eu/scadplus/leg/en/lvb/l24030b.htm Cybercrime Convention from 23.11.2001 (Council of Europe) http://conventions.coe.int/Treaty/Commun/QueVoulezVous. asp?NT=185&CL=ENG Stockholm Agenda for Action regarding child pornography from 1996 http://www.ilo.org/public/english/comp/child/standards/resolution/stockholm.htm Council of Europe Convention on the Protection of Children against Sexual Exploitation and Sexual abuse, signed on the 25th October 2007 http://www.nspcc.org.uk/Inform/policyandpublicaffairs/Europe/ Briefings/councilofeurope_wdf51232.pdf Communication (COM (2000) 890): Creating a safer information society by improving the security of information infrastructures and combating computer-related crime http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:5 2000DC0890:EN:HTML Council Decision of 29 May 2000 to combat child pornography on the Internet. http://europa.eu/scadplus/leg/en/lvb/l33116.htm Joint action to combat trafficking in human beings and sexual exploitation of children http://europa.eu/scadplus/leg/en/lvb/l33072.htm Communication on Illegal and Harmful Content on the Internet (1996) http://www.copacommission.org/meetings/hearing3/eu.test.pdf UN Convention on the Rights of the Child http://www.unicef.org/crc/ Charter of Fundamental Rights (2000) http://europa.eu/scadplus/leg/en/lvb/l33501.htm Council framework Decision 2004/68/JHA of 22 December 2003 on combating the sexual exploitation of children and child pornography http://europa.eu/scadplus/leg/en/lvb/l33138.htm Television without Frontiers Directive (03.10.1989) http://eur-lex.europa.eu/LexUriServ/site/en/consleg/1989/ L/01989L0552-19970730-en.pdf Audiovisual Media Services Directive (11 December 2007) http://eur-lex.europa.eu/LexUriServ/LexUriServ. do?uri=CELEX:32007L0065:EN:NOT Eigene Notizen 49 Eigene Notizen 50 Projektkoordinator So erreichen Sie uns: Stiftung Digitale Chancen Geschäftsführung Jutta Croll Fasanenstraße 3 10623 Berlin Tel.: ++49-30-43727730 Fax: ++49-30-43727739 email: jcroll@digitale-chancen.de Projekt im Rahmen des Safer Internet Programms der Europäischen Kommission Gefördert durch © Youth Protection Roundtable – Stiftung Digitale Chancen 2009 Design und Layout: Barbara Kloth, Hamburg 51 52