Auch in der zweiten Phase wird das Projekt von einer hochrangig besetzten Expertengruppe aus Wissenschaft, Wirtschaft und Zivilgesellschaft beraten. Die Expertengruppe unterstützt die Projektarbeit im Rahmen von Workshops und als Sounding Board.
Johannes Buchmann ist Professor für Informatik und Mathematik an der TU Darmstadt. Dort lehrt und forscht er seit 1996 in seinem Fachgebiet „Theoretische Informatik – Kryptographie und Computeralgebra“ mit Veröffentlichungen zu Algorithmen in der algebraischen Zahlentheorie, der Konstruktion neuer kryptographischer Verfahren und deren Verwendung in der Praxis. Er ist Sprecher des DFG-Sonderforschungsbereichs CROSSING – Cryptography-based Security Solutions und Vizedirektor des Center for Advanced Security Research Darmstadt CASED. Er ist Mitglied der Deutschen Nationalakademie Leopoldina und der Deutschen Akademie der Technikwissenschaften acatech, für die er 2011 bis 2013 das Projekt Internet Privacy leitete.
Seit 2004 ist er Vorstandsvorsitzender des CAST e.V., einem der wichtigsten Kompetenz-Zentren für IT-Sicherheit im deutschsprachigen Raum.
Heute und in Zukunft stehen uns gigantische Datenmengen aus allen Bereichen zur Verfügung. Ihre Analyse unterstützt das Verständnis für Zusammenhänge und erlaubt sehr genaue Prognosen. Diese Technologie hat ein enormes Potential. Viele fürchten sich davor, dass sie dadurch gläsern werden. Andere verbinden damit große Hoffnungen, zum Beispiel für die Gesundheit der Menschen. Ich nehme an der Expertengruppe teil, um zu einem Diskurs beitragen, der dazu führt, dass diese Technologie zum Wohl der Menschen eingesetzt wird.
Dr. Alexander Dix, LL.M. (Jahrgang 1951) ist seit Juni 2005 Berliner Beauftragter für Datenschutz und Informationsfreiheit. Am 3. Juni 2010 wurde er für eine zweite Amtszeit wiedergewählt. Zuvor war er sieben Jahre Landesbeauftragter für den Datenschutz und für das Recht auf Akteneinsicht in Brandenburg. Er ist Vorsitzender der Internationalen Arbeitsgruppe zum Datenschutz in der Telekommunikation (international auch bekannt als “Berlin Group”) und Mitglied der Artikel 29-Gruppe der Europäischen Datenschutzbeauftragten.
Das Studium der Rechtswissenschaften in Bochum, Hamburg und London schloss er mit dem Grad eines Master of Laws an der London School of Economics and Political Science ab und promovierte 1984 zum Dr. jur. an der Universität Hamburg. Er begann seine Tätigkeit beim Berliner Datenschutzbeauftragten 1985 und war von 1990 bis 1998 dessen Stellvertreter.
Hinter dem Begriff „Big Data“ verbergen sich sehr unterschiedliche Anwendungen, auf die das Datenschutzrecht differenzierte Antworten finden muss. Während die medizinische Forschung ausgehend von Korrelationen nach Kausalzusammenhängen sucht, beschränken sich kommerzielle Anwender häufig auf die Ermittlung von Korrelationen und ziehen daraus negative Konsequenzen für Einzelne und ganze Personengruppen. Auf die Probleme der informationellen Diskriminierung und des social sorting hat das Datenschutzrecht bisher keine befriedigenden Antworten. Das muss sich ändern. Ein Digitaler Kodex könnte dazu beitragen.
Prof. Dr. Claudia Eckert ist Leiterin des Fraunhofer-Instituts für Angewandte und Integrierte Sicherheit (AISEC) in München und Professorin der Technischen Universität München, wo sie den Lehrstuhl für IT-Sicherheit in der Fakultät für Informatik inne hat.
Zu ihren Forschungsschwerpunkten zählen die Entwicklung von Technologien zur Erhöhung der System- und Anwendungs-Sicherheit, die Sicherheit eingebetteter Systeme und die Erforschung neuer Techniken zur Erhöhung der Resilienz und Robustheit von Systemen gegen Angriffe. Ihre Forschungsergebnisse wurden in über 150 begutachteten Fachbeiträgen veröffentlicht.
Als Mitglied verschiedener nationaler und internationaler industrieller Beiräte und wissenschaftlicher Gremien berät sie Unternehmen, Wirtschaftsverbände sowie die öffentliche Hand in allen Fragen der IT-Sicherheit.
Big Data eröffnet sehr viele Chancen für Unternehmen, neue Dienstleistungen anzubieten. Beispielsweise können unterschiedlichste Daten über Maschinen und Anlagen erhoben und zusammengeführt werden, um frühzeitig mögliche Probleme zu erkennen und zu beheben. Auch für Verbraucher kann die Zusammenführung von Daten aus den verschiedensten Quellen und deren intelligente Auswertung viele Vorteile bieten – zum Beispiel in der Medizin oder beim Autofahren. Daten sind Werte und das „Öl“ der Wissensgesellschaft. Diese Werte zu schützen und dafür Sorge zu tragen, dass es nicht zu Datenmissbrauch und unerwünschter Datenweitergabe kommt, ist eine enorme Herausforderung. Es ist deshalb sehr wichtig, dass man frühzeitig mit allen gesellschaftlich Beteiligten in den Diskurs eintritt und die Chancen, aber auch die Risiken dieser Technologien offen debattiert und sich gemeinsam über Richtlinien und Prinzipien im Umgang mit diesem wichtigen Gut – also unseren Daten – verständigt. Das Projekt leistet hierzu einen sehr wertvollen Beitrag.
Christian Hawellek ist wissenschaftlicher Mitarbeiter am Institut für Rechtsinformatik der Leibniz Universität Hannover und betreut mit seinem Team die Forschungsprojekte im Bereich
Datenschutz/Datensicherheit und Sicherheit/Aufklärung/Überwachung. Forschungsschwerpunkte waren und sind rechtliche Aspekte von u.a. integrierten und teilautonom agierenden Überwachungssystemen („Smart Surveillance Systems“), TKÜ-Maßnahmen in IP-Netzen und auf Endgeräten, strategischen Beschränkungen, digitaler Forensik und des Erhebens und Austauschens digitaler Beweismittel, der Erkennung, Abwehr und Verfolgung von Cyberkriminalität und der Verhältnismäßigkeit entsprechender Maßnahmen. Frühere Forschungsschwerpunkte umfassen (insbesondere datenschutz- und datensicherheits-) rechtliche Fragen bezüglich Geo-Informationen, netzbasierter Finanztransaktionen, BYOD-Modelle, IT-Sicherheits-Audits, unternehmensübergreifender Informationssysteme und Datenbanken in komplexen Konzern-/Verbandsstrukturen.
Big Data-Applikationen sind datenschutzrechtlich schon deswegen sehr bedeutsam, weil sie sich hinsichtlich ihres Gefahrenpotentials für Grundrechtspositionen schwer bis gar nicht adäquat mit den gegebenen rechtlichen Instrumenten erfassen lassen. Gleichzeitig sind die in der Analyse und Auswertung von Big Data ablaufenden Prozesse so komplex, dass die Integrität der erzielten Ergebnisse durch Menschen kaum noch nachvollziehbar sein dürfte. So droht, eine gefährliche Nähe zu den verbotenen automatisierten Einzelentscheidungen zu entstehen. Aus diesem Grund liegt es nahe, jenseits des bestehenden Rechtsrahmens über grundsätzlich neue legislative Ansätze nachzudenken, die sich – wo notwendig – auch von tradierten datenschutzrechtlichen Dogmen werden lösen müssen. Gleichzeitig gilt es, dabei auch die europäischen Entwicklungen in diesem Feld sorgfältig im Auge zu behalten.
Lorena Jaume-Palasí forscht zu Rechtsphilosophie und politischer Philosophie an der Ludwig-Maximilians-Universität. Sie fokussiert sich auf die zeitgenössische Vorstellung und die Dynamiken digitaler Öffentlichkeit und Privatheit, insbesondere auf ethische Konflikte und Normen. Sie schreibt regelmäßig wissenschaftlich und in Mainstream-Medien zu Privatheit, Meinungsfreiheit, Überwachung und Sicherheit, Big Data und Öffentlichkeit. Unter anderem beriet sie als eine von acht externen Experten Googles Löschbeirat zum Thema „Recht auf Vergessen“.
Im Rahmen ihrer ehrenamtlichen Tätigkeit beim Internet & Gesellschaft Co:llaboratory beteiligt sie sich an der Entwicklung alltäglicher, technischer Anwendungen wie die Offlinetags als neue Formen der sozialen Konvention, um Öffentlichkeitspräferenzen bezüglich des eigenen Bildes zu signalisieren.
Sie ist Direktorin für Kommunikation und Jugendengagement der europäischen Sektion des UN Internet Governance Forums (EuroDIG) und sitzt im Expertenbeirat der internationalen Code Red Initiative gegen Massenüberwachung. Dabei engagiert sie sich aktiv bei der Organisation von Konferenzen und Diskussionsveranstaltungen, die den Dialog zu netzpolitischen Themen zwischen allen Stakeholdern fördern sowie als Bildungs- und Vernetzungsmaßnahme für die Zivilgesellschaft und die Jugend dienen.
Weder Daten noch Algorithmen tragen eine moralische Verantwortung. Für die Verarbeitung kleiner Datenmengen gelten dieselben ethischen Prinzipien wie bei der Verarbeitung großer heterogener Datenmengen. Die potentiellen ethischen Risiken von Big Data verlangen nach keinem neuen ethischen Prinzip. Jedoch führen herkömmliche Erkenntnismethoden, wie das Prinzip der Induktion, das wir in der Mathematik seit langem kennen, durch digitale Induktionsverfahren wie Big Data zu erheblichen ethischen Unsicherheiten. Diese bedürfen einer Klärung durch eine breite ethische Debatte.
Stephan Noller gründete 2015 das Internet of Things-Startup ubirch, das mit der europaweiten Installation „finding europe with lights“ Aufsehen erregte. Zuvor führte er bis April 2015 als CEO die nugg.ad AG, deren Gründer er auch war. Das Unternehmen mit Standorten in ganz Europa ist spezialisiert auf digitales Zielgruppenmarketing.
2009 wurde Stephan Noller zum Chairman des Policy Committee im IAB Europe gewählt. In dieser Funktion arbeitete er an der OBA-Selbstregulierung der europäischen Online-Wirtschaft. Für seine Verdienste wurde er 2012 mit dem IAB Mixx Award ausgezeichnet. Stephan Noller setzt sich für ethische Standards beim Einsatz von Filter- und Relevanz-Algorithmen ein. Nach seinem Psychologie-Studium zählten zu seinen bisherigen Stationen die Tätigkeit bei TNS Emnid bezüglich der Entwicklung eines Verfahrens zur Internet-Reichweiten-Messung für den Verband AGOF sowie das Fraunhofer-Institut im Forschungsgebiet Machine Learning.
Wesentliche Bereiche unserer Gesellschaft werden schon in wenigen Jahren von Big Data-Technologie geprägt sein. Egal, ob es automatische Übersetzungen, selbstfahrende Autos oder individuell zugeschnittene journalistische Angebote sind – wir werden von Algorithmen und Daten umgeben sein. Darin liegt viel Gutes, aber natürlich auch Gefahren. Die Idee eines ‚Digitalen Kodex’, um diese für den Gesetzgeber häufig zu schnellen Entwicklungen wenigstens ein bisschen normativ zu begleiten, halte ich für absolut richtig und wegweisend in der Debatte.
Dr. Bernhard Rohleder (Jahrgang 1965) ist Hauptgeschäftsführer des BITKOM e.V. seit dessen Gründung im Jahr 1999. Zudem leitete er von 1997 bis 2005 als Geschäftsführer das Marktforschungsinstitut European Information Technology Observatory (EITO). Zuvor führte er 1997/1998 turnusgemäß das Generalsekretariat des Weltverbands der IT-Industrie International Information Industry Congress (IIIC). Rohleder studierte Internationale Politik am Institut d’Etudes Politiques und promovierte anschließend an der Freien Universität Berlin. Er war Mitglied in der Enquête-Kommission des Deutschen Bundestages „Internet und digitale Gesellschaft“ in der letzten Legislaturperiode. Rohleder vertritt die Branche unter anderem im CeBIT-Messeausschuss sowie in den einschlägigen Gremien des Bundesverbands der Deutschen Industrie (BDI).
Wie schaffen wir die Balance zwischen Datensparsamkeit und Datenvielfalt? Wie nutzen wir Datenschätze und sichern gleichzeitig den Datenschutz? Wie schöpfen wir die Potentiale digitaler Technologien voll aus, verhindern aber ihren Missbrauch? Wie entwickeln wir eine leistungsfähige Datenwirtschaft am Standort Deutschland und berücksichtigen dabei die besonderen Schutzbedürfnisse unserer Gesellschaft? Wie bringen wir die Rechte auf informationelle Selbstbestimmung und Informationsfreiheit in Einklang? Wie wägen wir die informationelle Selbstbestimmung gegenüber anderen Grundrechten wie jenem der körperlichen Unversehrtheit ab? Wie lässt sich die breite gesellschaftliche Debatte um den Datenschutz in Schwung halten und gleichzeitig versachlichen? Diese Fragen sind auch im weltweiten Maßstab unbeantwortet. Nicht nur Deutschland braucht einen Digitalen Kodex.
Tobias Schwarz ist leitender Chefredakteur des renommierten Online-Magazins Netzpiloten.de, das seit 1998 das Internet erkundet und über die Digitalisierung unserer Gesellschaft informiert. Davor hat er unter anderem für die Blogging-Plattform Tumblr, den Bundesvorstand von Bündnis 90/Die Grünen, die Unternehmensberatung McKinsey & Company Inc., sowie für verschiedene politische Regionalvertretungen auf Bundes- und Europaebene gearbeitet. Er hat Politikwissenschaft in München, Venedig und Berlin studiert, ist seit 2012 Sprecher für Netzpolitik bei Bündnis 90/Die Grünen Berlin und engagiert sich im netzpolitischen Think Tank Collaboratory.
Big Data hat einen enormen Einfluss auf unsere Gesellschaft. Es verändert das persönliche Verhalten jedes Einzelnen, nach welchen Kriterien wir Entscheidungen treffen, wie wir Unternehmen führen oder wonach wir forschen. Der Umgang mit den Daten erfordert vollkommen neue Kulturtechniken von uns, denn noch nie war die Menge an zugänglichen Informationen so groß, es war aber auch noch nie so schwer sich auf das Wesentliche zu fokussieren.
Sebastian Spaeth ist seit 2013 Professor für Betriebswirtschaftslehre und Digitale Märkte an der Universität Hamburg. Seine Schwerpunkte in Forschung und Lehre sind kollaborative Innovations-, und Geschäftsmodelle. Weitere Themenschwerpunkte sind Privatsphäre, Demokratisierung von Innovation durch Crowdsourcing und Crowdfunding sowie deren Auswirkungen auf die Gesellschaft. Er begutachtet und publiziert in Internationalen Journals.
Aus mehreren, jede für sich harmlos erscheinenden Datenquellen lassen sich mittels Big Data-Methoden erstaunliche, interessante, aber auch erschreckend detaillierte Schlussfolgerungen ziehen. Das ist für Firmen und andere Organisationen wertvoll und für Kunden oft nutzenbringend. Allerdings lassen sich diese Daten auch missbrauchen und dringen tief in die Privatsphäre der Betroffenen ein. Wir als Gesellschaft müssen uns überlegen, ob und welche Regeln, Gesetze oder Normen notwendig, nützlich und gewünscht sind, um den Umgang mit dieser Datenflut und den daraus gewonnenen Informationen zu regeln und zu steuern.
Bildnachweise:
Prof. Dr. Dr. h.c. Johannes Buchmann (Foto: Leopoldina)
Dr. Alexander Dix (Foto: Berliner Beauftragter für Datenschutz und Informationsfreiheit)
Prof. Dr. Claudia Eckert (Foto: Fraunhofer AISEC)
Christian Hawellek (Foto: Hawellek)
Lorena Jaume-Palasi (Foto: Jaume-Palasí)
Stephan Noller (Foto: Andre Kowalski)
Dr. Bernhard Rohleder (Foto: BITKOM)
Tobias Schwarz (Foto: Kai Oliver Goldmann, Shootbook)
Prof. Dr. Sebastian Spaeth (Foto: Manuel Fischer, www.freshpixel.ch)