KITQAR @ re:publica 2023
KITQAR @ re:publica 2023
Kontakt
Dr. Sebastian Hallensleben

re:publica Berlin 2023: CASH

KITQAR@republica
© KITQAR

Auf der diesjährigen re:publica haben wir mit einer spannenden Panel-Diskussion und Input aus unserem Forschungsprojekt KITQAR teilgenommen. Dafür konnten wir neben unseren zwei KITQAR-Projektmitgliedern Andreas und Simon mit Uli und Christina noch zwei weitere tolle Rednerinnen gewinnen:

  • Uli Köppen, Leiterin Automation + AI Lab, Bayrischer Rundfunk
  • Christina Elmer, Professorin für Digitalen Journalismus / Datenjournalismus, TU Dortmund
  • Andreas Hauschke, Projectmanager for Trustworthy AI, VDE e.V.
  • Moderation: Simon David Hirsbrunner, Wissenschaftler und Teamleiter für KI- und Datenethik, Internationales Zentrum für Ethik in den Wissenschaften (IZEW), Universität Tübingen

Weitere Infos zum Programm findet ihr hier.

Free the (AI training) data !?! Negotiating data availability, accessibility and quality

KITQAR@republica
© KITQAR

Artificial Intelligence (AI) technologies are hungry for data. As a result, data for AI training, validation and testing are becoming the critical resource of our information age. Our panel discusses how to make these data resources better available and AI development more accessible, inclusive and trustworthy.

Oberhafenkantine; 07.06.2023 13:45 – 14:45; Panel-Diskussion; Englisch

Artificial Intelligence (AI) systems are trained with massive amounts of data. The availability and quality of these training datasets are critical factors in determining how reliable, trustworthy, and ethical AI products and services are and will be in the future. Training datasets are not only a valuable resource, but have become a profitable product and are marketed on a global scale. They are not only obtained as a by-catch of our online activities, but also - in case of synthetic data - designed specifically for the purpose of training, testing and evaluating AI models. 

But who gets access to training data and who doesn't? What does this mean for power relations in the age of AI and surveillance capitalism? Making training data as open and accessible as possible is a promising strategy to render AI more trustworthy and more democratic. This would improve the source credibility and explainability of authoritative, but opaque applications such as ChatGPT. Accessible training data cannot only effectively be scrutinized by various actors, but also potentially be supplemented and improved by harnessing the wisdom of the crowd. Advantages and disadvantages, potentials and risks of datasets could be evaluated and documented. Last but not least, open training data would also make AI more affordable and thus accessible for less wealthy actors such as journalists, NGOs, administrations and developers in the Global South. At the same time, we must protect privacy, digital self-determination and usage rights, as well as preventing the free flow of wrong, misinforming and otherwise harmful information. In other worlds, we might make training data as open as possible and as closed as necessary.

At the panel discussion, we address multiple access barriers for training data and different ways to overcome them. This will include topics like the potentials of open data for AI, privacy protection obligations and safeguards, requirements and standards for high quality data, privileged access via data trusts, potentials and risks of synthetic data as well as specific considerations for general purpose AI. The event will include lightning talks by three renowned experts from academia, media, and regulation, and allow for an exchange with the audience.

Sprecher*innen

Foto - Christina Elmer_kompr

Christina Elmer

Christina Elmer ist Professorin für Digitalen Journalismus und Datenjournalismus an der TU Dortmund. Zuvor arbeitete sie in unterschiedlichen Positionen in der Redaktion des SPIEGEL, zuletzt als stellvertretende Entwicklungschefin. Von 2017 bis 2019 gehörte sie zur Chefredaktion von SPIEGEL ONLINE. Sie ist zweite Vorsitzende des Vereins Netzwerk Recherche und wurde vom MEDIUM MAGAZIN als „Wissenschaftsjournalistin des Jahres 2016“ ausgezeichnet. Weitere Stationen als Datenjournalistin im Team Investigative Recherche des Magazins STERN und bei der DPA sowie als Volontärin beim WDR in Köln und Münster. Studium der Journalistik und Biologie an der TU Dortmund.

Foto - Christina Elmer_kompr

Christina Elmer ist Professorin für Digitalen Journalismus und Datenjournalismus an der TU Dortmund. Zuvor arbeitete sie in unterschiedlichen Positionen in der Redaktion des SPIEGEL, zuletzt als stellvertretende Entwicklungschefin. Von 2017 bis 2019 gehörte sie zur Chefredaktion von SPIEGEL ONLINE. Sie ist zweite Vorsitzende des Vereins Netzwerk Recherche und wurde vom MEDIUM MAGAZIN als „Wissenschaftsjournalistin des Jahres 2016“ ausgezeichnet. Weitere Stationen als Datenjournalistin im Team Investigative Recherche des Magazins STERN und bei der DPA sowie als Volontärin beim WDR in Köln und Münster. Studium der Journalistik und Biologie an der TU Dortmund.

Foto - Uli Koeppen_kompr

Uli Köppen

Uli Köppen arbeitet im Journalismus zu Automatisierung, Algorithmen und digitaler Strategie. Sie leitet interdisziplinäre Teams an der Schnittstelle von Journalismus und Technik, die sich auf investigative Datengeschichten, interaktives Storytelling und das Experimentieren mit Bots und maschinellem Lernen spezialisiert haben. Zusammen mit ihren Kolleg:innen hat sie beim BAYERISCHEN RUNDFUNK BR Data und das AI + Automation Lab gegründet und zahlreiche Preise gewonnen. Als Nieman Fellow verbrachte sie ein akademisches Jahr in Harvard und am MIT und ist Teil des Women’s Leadership Accelerator der Online News Association.

Foto - Uli Koeppen_kompr

Uli Köppen arbeitet im Journalismus zu Automatisierung, Algorithmen und digitaler Strategie. Sie leitet interdisziplinäre Teams an der Schnittstelle von Journalismus und Technik, die sich auf investigative Datengeschichten, interaktives Storytelling und das Experimentieren mit Bots und maschinellem Lernen spezialisiert haben. Zusammen mit ihren Kolleg:innen hat sie beim BAYERISCHEN RUNDFUNK BR Data und das AI + Automation Lab gegründet und zahlreiche Preise gewonnen. Als Nieman Fellow verbrachte sie ein akademisches Jahr in Harvard und am MIT und ist Teil des Women’s Leadership Accelerator der Online News Association.

Foto - Andreas Hauschke_kompr - Kopie

Andreas Hauschke

Andreas deals with all the requirements that artificial intelligence systems should fulfill in order to be considered trustworthy. The goal is to bring stakeholders together to create recommendations for action, standards and development frameworks. He provides perspectives from the disciplines of artificial intelligence, engineering, law, economics and business administration. In addition, he can contribute his experience from conformance testing, standardization projects and discussions with a wide range of people and stakeholders.

Foto - Andreas Hauschke_kompr - Kopie

Andreas deals with all the requirements that artificial intelligence systems should fulfill in order to be considered trustworthy. The goal is to bring stakeholders together to create recommendations for action, standards and development frameworks. He provides perspectives from the disciplines of artificial intelligence, engineering, law, economics and business administration. In addition, he can contribute his experience from conformance testing, standardization projects and discussions with a wide range of people and stakeholders.

Project Manager for trustworthy AI; VDE e.V.

Foto - Simon Hirsbrunner_kompr - Kopie

Moderation: Dr. Simon David Hirsbrunner

Simon Hirsbrunner ist wissenschaftlicher Mitarbeiter und Projektleiter im Bereich KI und Datenethik am IZEW-Institut der Eberhard Karls Universität Tübingen. Hier forscht er zu den Themen Predictive Policing und KI-Ethik. Herr Hirsbrunner studierte internationale Beziehungen in Genf (MA), sowie Europäische Medienwissenschaft in Potsdam (MA) und wurde an der Universität Siegen in Medienethnographie promoviert. Vorherige Arbeitsstationen beinhalten unter anderem die Human-Centered Computing (HCC) Forschungsgruppe an der Freien Universität Berlin, das Potsdam Institut für Klimafolgenforschung (PIK), Wikimedia Deutschland e.V., den Think Tank adelphi und das Schweizerische Außenministerium (EDA).

Foto - Simon Hirsbrunner_kompr - Kopie

Simon Hirsbrunner ist wissenschaftlicher Mitarbeiter und Projektleiter im Bereich KI und Datenethik am IZEW-Institut der Eberhard Karls Universität Tübingen. Hier forscht er zu den Themen Predictive Policing und KI-Ethik. Herr Hirsbrunner studierte internationale Beziehungen in Genf (MA), sowie Europäische Medienwissenschaft in Potsdam (MA) und wurde an der Universität Siegen in Medienethnographie promoviert. Vorherige Arbeitsstationen beinhalten unter anderem die Human-Centered Computing (HCC) Forschungsgruppe an der Freien Universität Berlin, das Potsdam Institut für Klimafolgenforschung (PIK), Wikimedia Deutschland e.V., den Think Tank adelphi und das Schweizerische Außenministerium (EDA).

Über die re:publica 23

KITQAR @ re:publica 2023
re:publica Berlin

Die re:publica – das Festival für die digitale Gesellschaft – fand vom 5.- 7. Juni 2023 in der Arena Berlin sowie dem Festsaal Kreuzberg statt und stand in diesem Jahr unter dem Motto „Cash“.

Das dreitägige Programm umfasste inspirierende Vorträge, Diskussionen, Workshops, Performances und vieles mehr zu Themen rund um das Netz, seine Communities und die Chancen und Herausforderungen, die in der Digitalisierung der Gesellschaft liegen.

Alle Informationen rund um die re:publica 23: re-publica.com