Die Wahlen 2024 waren ein historisches Ereignis: 3,7 Milliarden wahlberechtigte Menschen in 72 Ländern gaben ihre Stimmen ab. Dabei spielte Künstliche Intelligenz (KI) eine zentrale Rolle – als Werkzeug, aber auch als potenzieller Risikofaktor für demokratische Prozesse. Wie Schneier in seinem Artikel „AI and the 2024 Elections“ betont, zeigte sich sowohl das enorme Potenzial von KI für eine verbesserte politische Kommunikation als auch die Herausforderungen, die sie mit sich bringt.
Mit Blick auf die kommenden Wahlen und insbesondere die Bundestagswahl 2025 in Deutschland stellt sich die Frage, wie sich diese Entwicklungen auf die deutsche Demokratie auswirken könnten und welche Lehren aus den globalen Erfahrungen gezogen werden müssen.
Chancen: Wie KI die Demokratie unterstützen kann
KI hat zahlreiche positive Anwendungen gefunden, die demokratische Prozesse effizienter und zugänglicher machen:
Barrierefreie Kommunikation: Politiker nutzten KI-basierte Übersetzungen, um mit multikulturellen und vielsprachigen Wählerschaften zu kommunizieren. Indiens Premierminister Narendra Modi oder New Yorks Bürgermeister Eric Adams setzten diese Technologien gezielt ein, um ihre Botschaften verständlich und universell zugänglich zu machen. Auch in Deutschland könnten solche Technologien eine wichtige Rolle spielen, um eine diverser werdende Gesellschaft effektiver zu erreichen.
Personalisierte Wähleransprache: KI-gestützte Chatbots boten den Wähler:innen die Möglichkeit, direkt mit Kandidat:innen zu interagieren. So konnte beispielsweise der japanische Politiker Takahiro Anno durch den Einsatz eines KI-Avatars tausende Fragen beantworten – ein entscheidender Faktor für seinen Wahlerfolg. Deutsche Parteien könnten solche Technologien auch verwenden, um besser gezielt auf regionale und lokale Anliegen von potenziellen Wähler:innen einzugehen.
Effiziente Kampagnenführung: Durch die Analyse von Wählerstimmungen (Social Listening, Synthetic Voters) auf sozialen Medien und die Erstellung personalisierter Spendenaufrufe trug KI dazu bei, Kampagnen zielgerichteter zu gestalten. In der Bundestagswahl 2025 könnte KI insbesondere kleineren Parteien helfen, effizienter zu arbeiten und ihre Reichweite zu erhöhen.
Social Listening und Synthetic Voters sind zwei Konzepte, die zunehmend in der politischen Kommunikation und Datenanalyse an Bedeutung gewinnen.
Social Listening bezieht sich auf die Praxis, öffentliche Äußerungen und Gespräche in sozialen Medien oder anderen digitalen Plattformen zu überwachen, um Einsichten in die Meinungen, Stimmungen und Trends der Gesellschaft zu gewinnen. Diese Methode wird häufig von Unternehmen, politischen Akteuren und anderen Interessengruppen genutzt, um ihre Zielgruppen besser zu verstehen und gezielt zu beeinflussen.
Synthetic Voters, im Gegensatz dazu, bezeichnen eine künstlich erzeugte Gruppe von „Wählern“, die auf Basis von algorithmischen Modellen und historischen Wahlverhalten erstellt wird, um die Auswirkungen von politischen Kampagnen oder Wahlstrategien zu simulieren. Diese Modelle verwenden große Datenmengen und maschinelles Lernen, um das Verhalten von Wählern vorherzusagen, was es ermöglicht, politische Entscheidungen und Kampagnen gezielt zu optimieren.
Die Verbindung dieser beiden Konzepte zeigt sich darin, dass Social Listening wertvolle Echtzeitdaten über die öffentliche Meinung liefert, die dann genutzt werden können, um Synthetic Voters noch präziser zu modellieren. Während Social Listening die tatsächlichen Meinungen und Stimmungen der Bevölkerung erfasst, ermöglicht die Modellierung von Synthetic Voters, diese Daten in simulationsbasierte Strategien zu integrieren. So können politische Akteure nicht nur auf bestehende Meinungen reagieren, sondern auch zukünftige Trends und Wahlverhalten proaktiv beeinflussen. Die Kombination dieser Technologien könnte die politische Kommunikation stark beeinflussen und verändern, indem sie eine datengestützte, dynamische und zielgerichtete Interaktion mit den Wählern ermöglicht.
Risiken: Herausforderungen für die Demokratie
Neben den Chancen bringt der Einsatz von KI auch gravierende Risiken mit sich:
Manipulation durch personalisierte Botschaften: Die Möglichkeit, hochgradig personalisierte Nachrichten zu erstellen, kann zu einer subtilen Manipulation führen. Wähler:innen könnten dadurch in ihren Entscheidungen beeinflusst werden, ohne sich dessen bewusst zu sein. Gerade im Kontext der Bundestagswahl 2025, in der Themen wie Klimaschutz, soziale Gerechtigkeit und auch Themen wie Migration dominieren könnten, besteht die Gefahr, dass KI gezielt genutzt wird, um bestimmte Narrative zu verstärken. Migration könnte dabei besonders anfällig für manipulative Botschaften sein, da das Thema häufig emotional und polarisierend diskutiert wird.
Gefahr von Fehlinformationen: Zwar waren Deepfakes und KI-generierte Desinformation 2024 weniger dominant als befürchtet, doch bleibt das Potenzial für zukünftige Wahlzyklen alarmierend. In Deutschland könnte eine Verbreitung manipulativer Inhalte zu einer weiteren Polarisierung der Gesellschaft beitragen. Besonders im Bereich Migration besteht das Risiko, dass schnelle, KI-generierte Inhalte Vorurteile verstärken oder falsche Informationen verbreiten, die gezielt auf Ängste und Ressentiments abzielen.
Intransparenz: Der verdeckte Einsatz von KI in Kampagnen wirft Fragen zur Transparenz auf. Wähler:innen können oft nicht nachvollziehen, wie KI-basierte Tools ihre politische Meinungsbildung beeinflussen. Für die Bundestagswahl 2025 wäre ein offener, transparenter Umgang mit dem Einsatz von KI seitens der politischen Akteure sehr sinnvoll, da es durch den kurzfristigen Wahltermin vorab nicht realistisch ist, geeignete Rahmenbedingungen zu schaffen, die den Einsatz solcher Technologien im Wahlkampf regeln.
Empfehlungen: Wie wir Risiken minimieren können
Um das Potenzial von KI zu nutzen und gleichzeitig die demokratische Integrität zu wahren, bedarf es klarer Regeln und Ansätze:
Transparenz und Aufklärung: Parteien und Kandidat:innen sollten offenlegen, wie sie KI einsetzen. Klare Hinweise auf den Einsatz von KI-generierten Inhalten könnten das Vertrauen der Wähler:innen stärken. Dies wäre insbesondere vor der Bundestagswahl 2025 in Deutschland sehr sinnvoll und durch alle politischen Akteure kurzfristig realisierbar.
Regulierung von KI in der Politik: Gesetzgeber müssen Leitlinien schaffen, die den Einsatz von KI in Wahlkampagnen regeln. Dazu könnten Einschränkungen für Deepfake-Technologien und Richtlinien für den Umgang mit personalisierten Botschaften gehören.
Demokratische Kontrolle: Unabhängige Institutionen könnten den Einsatz von KI in politischen Prozessen überwachen, um Manipulation und Missbrauch zu verhindern oder mindestens transparent zu machen.
Förderung von ethischen Standards: Entwickler:innen von KI-Systemen sollten angehalten werden, ethische Prinzipien zu beachten, die eine faire und diskriminierungsfreie Nutzung von KI in der Politik gewährleisten. Solche Standards und deren Förderung sollte als kontinuierlicher Verbesserungsprozess angesehen und angelegt werden.
Bewusstseinsbildung: Wähler:innen sollten besser über die Chancen und Risiken von KI informiert werden, um ihre Medienkompetenz aber auch allgemein ihre Kompetenzen zu stärken und Manipulationsversuche zu erkennen.
Fazit
Die Wahlen im Jahr 2024 haben gezeigt, dass KI ein zweischneidiges Schwert ist. Sie bietet die Möglichkeit, demokratische Prozesse inklusiver und effizienter zu gestalten, birgt jedoch gleichzeitig erhebliche Risiken für Manipulation und Transparenzverlust. Mit Blick auf die anstehende Bundestagswahl 2025 ist es entscheidend, aus den bisherigen Erfahrungen zu lernen und den Einsatz von KI verantwortungsvoll zu gestalten. Nur durch gute Regeln, ethische Standards und eine bewusste gesellschaftliche Reflexion kann KI zu einem Werkzeug werden, das die Demokratie stärkt, anstatt sie zu gefährden. Am Ende wird auch hoffentlich viel davon abhängen, wie zufrieden die Bürger:innen mit den späteren Arbeitsergebnissen der politischen Akteure sind, denen Sie als Wähler:innen ihr Vertrauen ausgesprochen haben: Aus der Perspektive bleibt zu hoffen, dass KI den „Realität-Check“ nicht überblendet oder verhindert.
Aktualisierung
31.12.2024
Mit dem Thema KI und Wahlen hat sich auch der deutsche Bundestag beschäftigt, im Zusammenhang mit der Fortschreibung der Aufgabenplanung 2022 bis 2025 für das Jahr 2025 der Deutschen Welle (DW):
Die zunehmend von Künstlicher Intelligenz (KI) gestützte Verbreitung von gefälschtem Bild- und Videomaterial sowievon synthetischen Stimmen und Gesichtern befeuert Desinformation. Sie kann Gesellschaften weiter polarisieren, Vertrauen zersetzen und sozialen Zusammenhalt untergraben. Auf den sozialen Medien greifen Bots mit KI generierten Kommentaren in Diskussionen ein, befördern Hass und verbreiten mitunter antiwestliche Narrative und Verschwörungen. Vermehrt wurden Angebote der DW gefälscht, die die Glaubwürdigkeit der Marke DW instrumentalisieren, um Unwahres zu verbreiten.
Auch die positiven Aspekte sind Teil der Aufgabenplanung:
Die KI-gestützte Ausspielung von Inhalten verändert die Medienlandschaft, indem sie zu einer stärker auf individuelle Bedürfnisse zugeschnittenen digitalen Mediennutzung führt. Somit fragmentiert der Medienkonsum immer weiter. Zudem ist ein Anstieg des Wettbewerbs durch automatisiert erstellte Inhalte zu erwarten. Zugleich bietet KI großes Potenzial für die DW, die Bewältigung von Aufgaben zu beschleunigen und zu bereichern.
Der Artikel „The AI We Deserve“ von Evgeny Morozov, veröffentlicht in der Boston Review, beleuchtet die rasante Entwicklung generativer Künstlicher Intelligenz (KI) seit der Einführung von ChatGPT im November 2022. Morozov hebt hervor, wie diese Technologie verschiedene Branchen revolutioniert und persönliche sowie berufliche Aufgaben beeinflusst. Er teilt seine Erfahrungen im Sprachenlernen, wo KI-gestützte Tools ihm ermöglichen, personalisierte Geschichten mit Audio in mehreren Sprachen zu erstellen, was seine Effizienz erheblich steigert.
Chancen und Risiken abwägen
Die rasante Entwicklung von generativer Künstlicher Intelligenz birgt sowohl enorme Möglichkeiten als auch ernsthafte Risiken. Technologien wie ChatGPT revolutionieren Arbeits- und Lernprozesse, machen sie effizienter und eröffnen kreative neue Wege – vom personalisierten Sprachenlernen bis zur Automatisierung komplexer Aufgaben. Doch diese Fortschritte gehen mit Herausforderungen einher: Die Macht über die dahinterliegenden oder damit verbundenen Systeme liegt oft in den Händen weniger Großunternehmen, was die Gefahr von Monopolen, Verzerrungen und mangelnder Transparenz birgt. Einseitige Entwicklungen, die nur auf Effizienz abzielen, könnten gesellschaftliche Ungleichheiten verstärken und grundlegende ethische Fragen ignorieren.
Kritische Reflexion – Fragen, die wir stellen müssen
Eine tiefgehende kritische Reflexion über den Einsatz von KI muss mehrere Ebenen berücksichtigen. Zunächst sollte gefragt werden, welche Interessen hinter der Entwicklung und Verbreitung solcher Technologien stehen. Werden diese primär von wirtschaftlichen oder gesellschaftlichen Zielen geprägt? Eine rein marktgetriebene KI birgt die Gefahr, dass menschliche Werte wie Privatsphäre, Gleichheit und Fairness zugunsten von Profiten vernachlässigt werden.
Zweitens muss die Frage nach den blinden Flecken und systematischen Verzerrungen gestellt werden. KI-Modelle basieren auf großen Datensätzen, die oftmals historische Diskriminierungen und gesellschaftliche Ungleichheiten widerspiegeln. Dies wird zusätzlich problematisch, wenn die Modelle auf Metainformationen stoßen, die bereits interpretativ oder subjektiv geprägt sind – beispielsweise in Form von journalistischen Artikeln, wissenschaftlichen Analysen oder sozialen Medien. Diese Informationen enthalten oft vorgefertigte Deutungen und Wertungen, die unreflektiert in die Entscheidungsprozesse der KI einfließen können. So entstehen „Verzerrungen zweiter Ordnung“, bei denen die KI nicht nur vorhandene Vorurteile verstärkt, sondern neue Biases generiert, die schwerer erkennbar sind. Dies macht es essenziell, nicht nur die zugrundeliegenden Datensätze zu prüfen, sondern auch zu fragen, wie diese interpretiert und in den Trainingsprozess integriert werden.
Drittens ist die Machtasymmetrie zu hinterfragen: Wer entscheidet über die Nutzung und Weiterentwicklung von KI? Eine demokratischere Gestaltung von KI würde bedeuten, dass Bürger:innen, unabhängige Organisationen und Wissenschaftler:innen mehr Mitspracherecht erhalten. Technologien, die maßgeblich das Leben von Milliarden beeinflussen, sollten nicht in den Händen weniger Akteure liegen. Transparente Entscheidungsprozesse und öffentlich zugängliche Modelle könnten ein erster Schritt sein.
Verantwortung übernehmen – Prüfkriterien für Entscheidungen
Beim Einsatz von KI könne solche abwägenden Leitlinien als Orientierung dienen, wobei die linke Seite gegenüber der rechten Seite in der Abwägung bevorzugt wird:
Gesellschaftlicher Nutzen über kommerzielle Interessen Technologie sollte primär darauf abzielen, das Leben vieler zu verbessern, nicht nur den Gewinn weniger.
Transparenz und Offenheit über proprietäre Geheimhaltung Offene Modelle und nachvollziehbare Prozesse stärken das Vertrauen und die gesellschaftliche Kontrolle.
Abbau von Ungleichheiten über reine Effizienzsteigerung Fortschritt sollte darauf abzielen, strukturelle Probleme zu lösen und nicht nur Prozesse zu optimieren.
Demokratische Teilhabe über einseitige Entscheidungen Entscheidungen über den Einsatz von KI sollten vielfältige Perspektiven berücksichtigen und demokratisch legitimiert sein.
Langfristige Nachhaltigkeit über kurzfristige Innovation Technologie sollte nicht nur kurzfristige Erfolge erzielen, sondern langfristige gesellschaftliche und ökologische Folgen berücksichtigen.
Indem solche Prinzipien als Prüfkriterien etabliert werden, könnte besser sichergestellt werden, dass KI nicht nur technisch beeindruckend, sondern auch ethisch und sozial nachhaltig ist.
Um die Erkenntnisse sofort umzusetzen, wurden KI-Methoden zur sprachlichen Verbesserung des Textes verwendet.
Als Thema habe ich Forschungsdatenmanagement (FDM) in den Rechtswissenschaften ausgewählt, vor allem da ich in dem Umfeld bislang noch wenige Erkenntnisse habe und sehr neugierig auf die Rückmeldungen war. Als Einstiegsfrage, nach dem ich geklärt hatte, ob mein Gegenüber eine Konversation in deutscher Sprache ermöglicht und wir die Anrede geklärt hatten, war:
Kennst du dich mit Forschungsdatenmanagement aus?
Ja, ich habe Kenntnisse über das Management von Forschungsdaten. Das Management von Forschungsdaten umfasst die Planung, Organisation, Sicherung, Dokumentation und Nutzung von Daten, die während eines Forschungsprojekts generiert werden. Es ist wichtig, dass Forschungsdaten sorgfältig verwaltet werden, um die Integrität und Reproduzierbarkeit von Forschungsergebnissen sicherzustellen. Ein gutes Datenmanagement hilft auch, die Effizienz von Forschungsprojekten zu verbessern und Zeit und Ressourcen zu sparen. Möchtest du mehr darüber erfahren, wie man Forschungsdaten erfolgreich verwaltet, oder hast du eine spezifischere Frage zu diesem Thema?
ChatGPT
Ok, das ist spannend. Ich starte eine Unterhaltung.
Forschungsdaten in den Rechtswissenschaften
Mich interessiert, welche Forschungsdaten in verschiedenen Fächern anfallen können. Einige Anwendungsfälle kann ich mir gut vorstellen, aber ich habe mich gefragt, wie Forschungsdaten in den Rechtswissenschaften aussehen könnten?
In den Rechtswissenschaften können verschiedene Arten von Daten anfallen, je nachdem, welche Art von Forschungsprojekt durchgeführt wird. Beispiele für mögliche Forschungsdaten in den Rechtswissenschaften sind:
Gesetzestexte und Rechtsprechung: Diese können in elektronischer oder gedruckter Form vorliegen und können für die Analyse von Rechtsfragen oder für die Entwicklung von Rechtsmodellen verwendet werden.
Umfragedaten: In den Rechtswissenschaften können Umfragen durchgeführt werden, um Meinungen von Juristen, Justizbeamten oder der Öffentlichkeit zu bestimmten Rechtsfragen zu erheben.
Daten aus Fallstudien: Die Analyse von Einzelfällen kann eine wertvolle Methode sein, um tiefer in komplexe rechtliche Probleme einzudringen.
Statistische Daten: In den Rechtswissenschaften können auch statistische Daten verwendet werden, um Trends oder Muster in der Rechtsprechung oder im Rechtssystem im Allgemeinen zu untersuchen.
Dies sind nur einige Beispiele von Forschungsdaten, die in den Rechtswissenschaften anfallen können. Möchtest du noch mehr Informationen zu diesem Thema?
ChatGPT
Nachnutzung von Forschungsdaten
Mich interessiert speziell, wie in den Rechtswissenschaften mit der Nachnutzung von Forschungsdaten umgegangen wird, bei denen es Bezüge zu realen Personen gibt. Wie kann das Thema Datenschutz bei solchen Forschungsdaten gut berücksichtigt werden?
Die Berücksichtigung von Datenschutz in Bezug auf Forschungsdaten, die personenbezogene Informationen enthalten, ist ein wichtiger Aspekt des Datenmanagements in den Rechtswissenschaften. Es gibt einige Maßnahmen, die man ergreifen kann, um den Datenschutz bei der Nachnutzung von solchen Daten sicherzustellen:
Anonymisierung: Eine Möglichkeit, den Datenschutz zu gewährleisten, besteht darin, alle personenbezogenen Informationen aus den Daten zu entfernen oder zu maskieren. Auf diese Weise können die Daten nachverwendet werden, ohne dass die Privatsphäre der betroffenen Personen gefährdet wird.
Einwilligung: Vor der Nachnutzung von Daten, die personenbezogene Informationen enthalten, sollte man die Einwilligung der betroffenen Personen einholen. Dies kann entweder in Form einer schriftlichen Einwilligungserklärung oder mithilfe einer Online-Einwilligungsform erfolgen.
Datenschutzplan: Es ist ratsam, einen Datenschutzplan zu erstellen, der beschreibt, wie man mit personenbezogenen Daten umgehen wird, um sicherzustellen, dass sie sicher und gesetzeskonform verwaltet werden. Der Plan sollte auch beschreiben, wie man im Falle von Datenpannen oder Datenschutzverletzungen vorgehen wird.
Datenschutz- und Datensicherheitsmaßnahmen: Es ist wichtig, angemessene technische und organisatorische Maßnahmen zum Schutz von personenbezogenen Daten zu treffen. Dies kann beispielsweise die Verwendung von Verschlüsselung, Zugriffsbeschränkungen oder Datensicherungskopien umfassen.
Ich hoffe, ich konnte dir mit diesen Informationen weiterhelfen. Lass mich wissen, ob du noch weitere Fragen hast.
ChatGPT
Ist der Datenschutzplan ein Teil des Datenmanagementplans?
Ja, der Datenschutzplan kann als Teil des Datenmanagementplans betrachtet werden. Ein Datenmanagementplan ist ein Dokument, das die Strategien und Verfahren festlegt, die bei einem Forschungsprojekt zum Management von Daten verwendet werden. Der Datenschutzplan beschreibt im Allgemeinen, wie man mit personenbezogenen Daten umgehen wird, um sicherzustellen, dass sie sicher und gesetzeskonform verwaltet werden. Er kann Teil des Datenmanagementplans sein, oder er kann als eigenständiges Dokument erstellt werden, das sich speziell mit dem Thema Datenschutz befasst. Es ist wichtig, dass der Datenschutzplan in Übereinstimmung mit geltenden Datenschutzgesetzen und -bestimmungen erstellt wird.
ChatGPT
Welche Inhalte sollten Juristen außerdem in einem Datenmanagementplan festhalten?
Ein Datenmanagementplan für Juristen könnte folgende Inhalte enthalten:
Eine Übersicht über das Forschungsprojekt und die zu verwaltenden Daten, einschließlich der Art der Daten, der geplanten Nutzung der Daten und der geplanten Nachnutzung der Daten.
Eine Beschreibung der Verantwortlichkeiten und Rollen im Hinblick auf das Datenmanagement, einschließlich der Personen oder Einheiten, die für die Erfassung, Verarbeitung und Nutzung von Daten verantwortlich sind.
Eine Aufstellung der geplanten Maßnahmen zur Sicherung der Integrität und Qualität der Daten, zum Beispiel durch die Dokumentation von Metadaten oder die Durchführung von Plausibilitätsprüfungen.
Eine Beschreibung der geplanten Maßnahmen zur Sicherung der Sicherheit und Vertraulichkeit von Daten, zum Beispiel durch die Verwendung von Verschlüsselung oder Zugriffsbeschränkungen.
Eine Beschreibung der geplanten Maßnahmen zur Sicherung der Nachnutzbarkeit von Daten, zum Beispiel durch die Erstellung von Datenmanagement-Protokollen oder die Einhaltung von Standards für Datenformate.
Eine Aufstellung von geplanten Maßnahmen zur Archivierung von Daten, um sicherzustellen, dass sie auch nach Beendigung des Forschungsprojekts noch verfügbar sind.
Eine Beschreibung von geplanten Maßnahmen zur Einhaltung von geltenden Datenschutzgesetzen und -bestimmungen.
Dies sind nur einige Beispiele für Inhalte, die in einem Datenmanagementplan für Juristen festgehalten werden könnten. Es ist wichtig, dass der Plan individuell an die Bedürfnisse und Anforderungen des spezifischen Forschungsprojekts angepasst wird.
ChatGPT
Datenstandards in den Rechtswissenschaften
Welche Standards für Datenformate sind in den Rechtswissenschaften weit verbreitet?
In den Rechtswissenschaften werden verschiedene Standards für Datenformate verwendet, abhängig von der Art der Daten und der geplanten Nutzung der Daten. Einige Beispiele für gebräuchliche Datenformate in den Rechtswissenschaften sind:
Textdateien: Textdateien sind ein weit verbreitetes Format für die Speicherung von Textdokumenten, wie zum Beispiel Gesetzestexten oder Rechtsprechung. Sie können in verschiedenen Formaten gespeichert werden, wie zum Beispiel als ASCII- oder Unicode-Dateien.
Tabellenkalkulationsdateien: Tabellenkalkulationsdateien, wie zum Beispiel Microsoft Excel- oder OpenOffice Calc-Dateien, werden häufig verwendet, um Daten in tabellarischer Form zu speichern und zu analysieren. Sie eignen sich besonders gut für die Verwaltung von großen Mengen strukturierter Daten.
Datenbanken: In den Rechtswissenschaften werden oft Datenbanken verwendet, um große Mengen an Daten zu speichern und zu verwalten. Es gibt verschiedene Arten von Datenbanken, wie zum Beispiel relationale Datenbanken oder NoSQL-Datenbanken.
Bild- und Audioformate: In den Rechtswissenschaften können auch Bild- und Audioformate verwendet werden, um Dokumente oder Audioaufnahmen zu speichern. Beispiele für gängige Bildformate sind JPEG- oder PNG-Dateien, während MP3- oder WAV-Dateien häufig für Audioaufnahmen verwendet werden.
Dies sind nur einige Beispiele von Datenformaten, die in den Rechtswissenschaften verwendet werden können. Es ist wichtig, dass man beim Umgang mit Daten auf die Kompatibilität und die Nachnutzbarkeit der verwendeten Formate achtet, um sicherzustellen, dass die Daten auch in Zukunft noch verfügbar und nutzbar sind.
ChatGPT
Repositorien in den Rechtswissenschaften
Welche fachspezifischen Repositorien für Forschungsdaten werden in den Rechtswissenschaften häufig genutzt?
In den Rechtswissenschaften gibt es verschiedene Repositorien für Forschungsdaten, die von Juristen genutzt werden können. Einige Beispiele für fachspezifische Repositorien für Forschungsdaten in den Rechtswissenschaften sind:
GESIS – Leibniz-Institut für Sozialwissenschaften: Das GESIS-Repositorium ist ein vom Leibniz-Institut für Sozialwissenschaften betriebenes Repositorium, das sozialwissenschaftliche Daten, darunter auch Daten aus den Rechtswissenschaften, speichert und veröffentlicht.
Juris GmbH: Juris ist ein privates Unternehmen, das Online-Dienstleistungen für Juristen anbietet, darunter auch das Repositorium „Juris Data“. Das Repositorium speichert und veröffentlicht Daten aus den Rechtswissenschaften, insbesondere aus dem Bereich der Rechtsprechung.
Zentralarchiv für Empirische Sozialforschung (ZA) der Universität Köln: Das ZA-Repositorium ist ein vom Zentralarchiv für Empirische Sozialforschung betriebenes Repositorium, das sozialwissenschaftliche Daten, darunter auch Daten aus den Rechtswissenschaften, speichert und veröffentlicht.
Dies sind nur einige Beispiele von Repositorien für Forschungsdaten in den Rechtswissenschaften. Es gibt auch andere Repositorien, die sich speziell auf bestimmte Rechtsgebiete oder Datenformate konzentrieren. Es ist wichtig, das passende Repositorium für die eigenen Forschungsdaten auszuwählen, um sicherzustellen, dass die Daten ordnungsgemäß verwaltet und geschützt werden.
ChatGPT
Metadaten und Ontologien
Welche Metadaten-Schemata oder Ontologien werden für das Management von Forschungsdaten in den Rechtswissenschaften verwendet?
In den Rechtswissenschaften werden verschiedene Metadaten-Schemata oder Ontologien verwendet, um die Qualität und Nachnutzbarkeit von Forschungsdaten zu verbessern. Einige Beispiele für Metadaten-Schemata oder Ontologien, die in den Rechtswissenschaften verwendet werden können, sind:
DDI (Data Documentation Initiative): DDI ist ein internationaler Standard für die Dokumentation von Daten aus den Sozialwissenschaften. Er definiert ein strukturiertes Schema, das verwendet werden kann, um Metadaten zu beschreiben, die für die Verwaltung und Nachnutzung von Daten erforderlich sind.
JUSPAN[1] (Jurisprudential Standardized Planning and Annotation): JUSPAN ist eine Ontologie, die speziell für die Rechtswissenschaften entwickelt wurde. Sie dient dazu, Begriffe und Konzepte aus dem Recht in einer einheitlichen Weise zu beschreiben und zu verknüpfen.
DCMI (Dublin Core Metadata Initiative): DCMI ist eine internationale Organisation, die sich der Erstellung von Metadaten-Standards für Web und andere Daten. DCMI bietet eine Reihe von Metadaten-Elementen und -Termen an, die verwendet werden können, um Daten aus verschiedenen Fachgebieten zu beschreiben. Die Dublin Core Metadata Initiative ist besonders für die Nachnutzung von Daten geeignet, da ihre Metadaten-Elemente allgemein anerkannt und verbreitet sind.
ChatGPT
Vielen Dank, das sind eine ganze Reihe interessanter Informationen mit denen man sich weiter beschäftigen kann.
Weitere Aspekte
Gibt es noch weitere Informationen, die du gerne zu unserem Gespräch hinzufügen möchtest? Oder Information zum Thema Forschungsdatenmanagement in den Rechtswissenschaften, die wir noch nicht angesprochen haben?
Gerne! Einige weitere Aspekte, die beim Forschungsdatenmanagement in den Rechtswissenschaften beachtet werden sollten, sind:
Zitierbarkeit: Um sicherzustellen, dass die eigenen Forschungsdaten auch in Zukunft noch nachvollzogen und zitiert werden können, ist es wichtig, sie ordnungsgemäß zu dokumentieren und zu veröffentlichen. Dazu gehört unter anderem die Verwendung von eindeutigen Identifikatoren, die Verwendung von Standards für Datenformate und die Erstellung von Datenmanagementplänen.
Rechtsfragen: Im Umgang mit Forschungsdaten in den Rechtswissenschaften sind oft auch rechtliche Fragen von Bedeutung, wie zum Beispiel die Einhaltung von Datenschutzgesetzen oder die Berücksichtigung von Urheberrechten. Es ist wichtig, sich frühzeitig mit solchen Fragen auseinanderzusetzen, um sicherzustellen, dass das Forschungsprojekt rechtlich einwandfrei ist.
Datenintegrität: Die Integrität von Forschungsdaten ist von großer Bedeutung, um sicherzustellen, dass die Ergebnisse eines Forschungsprojekts verlässlich und nachvollziehbar sind. Maßnahmen zur Sicherung der Integrität von Daten können zum Beispiel die Dokumentation von Prozessen und Verfahren oder die Verwendung von Verschlüsselung sein.
Ich hoffe, dass diese Informationen hilfreich sind. Lass mich wissen, ob du noch weitere Fragen hast.
ChatGPT
Danke, das ist auch eine gute Zusammenfassung des Gesprächsverlaufs. Vielleicht komme ich später auf das Angebot zurück den Chat fortzusetzen.
Die Verlinkungen von Quellen und Referenzen habe ich nachträglich eingefügt in den Chatverlauf. [1] Anmerkung: Zu JUSPAN konnte ich keine Belege oder Quellen finden.
Inzwischen gibt es eine Art Turing-Test für ChatGPT namens GPTzero: Eine App, die schnell und effizient erkennen kann, ob ein Text oder Aufsatz von ChatGPT oder von Menschen geschrieben wurde
Allgemeine Kritik
Eine kritische Prüfung der Inhalte der Chat-Kommunikation ist empfehlenswert. Schon bei dem oben beschrieben kleinen Experiment konnten nicht alle Quellen und Angaben verifiziert werden, auch wenn der Text insgesamt passend formuliert wurde. Einige Beispiele für Kritik an den Ergebnissen werden ganz gut in diesem taz-Artikel beschrieben: https://taz.de/Kuenstliche-Intelligenz/!5905841/
Ein weiterer Artikel, der sich mit den Grenzen und Schwierigkeiten auseinandersetzt und dabei auch die Verwendung von wissenschaftliche Methoden bei der Darstellung der Inhalte durch ChatGPT berücksichtigt, wurde auf digiethics.org veröffentlicht
Verwendung für und in Lehrveranstaltungen
Die Verwendung von ChatGPT in oder zur Vorbereitung von Lehrveranstaltungen findet derzeit vielerorts – vor allem in den sogenannten sozialen Medien – Betrachtung. Auch die Möglichkeit oder Tatsache, dass Lernende Gebrauch von dieser neuen Unterstützungsoption machen, befeuert diesen Hype.
Eine differenzierte Betrachtung mit Abwägungen, welche Hilfestellung ChatGPT hinsichtlich Struktur und Inhalt bei der Vorbereitung solcher Themen leisten kann und mit welcher Art und Struktur von Informationen man die KI vorab briefen sollte, ist ein relevanter Meilenstein auf dem Weg zur ernsthaften Verwendung solcher Technologien.
Einige Aspekte in dieser Richtung werden aus dem Dialog beziehungsweise dem von ChatGPT erstellten Text und den vorab gegebenen Anweisungen zur Vorlesungsplanung, die Jörn Loviscach in seinem Blog veröffentlicht hat, deutlich: https://j3l7h.de
Inzwischen habe ich aus der ChatGPT-Konversation zum Thema Forschungsdatenmanagement in den Rechtswissenschaften einen kleinen Podcast erstellt, den ich hier zur Verfügung stelle:
Podcastepisode aus dem DINITus Podcast
Bert Zulauf trifft in dieser Folge auf ChatGPT und will alles über die Digitalisierung in der Hochschule mit Hilfe der KI, die neuen Bibliotheksgärten und den Hörsaal der Zukunft wissen und sucht nach einfachen und praktikablen Lösungen und Antworten. Aber immer wieder stößt er dabei an Grenzen.
Im Abspann gibt es noch ein paar Gedanken von Bert und Andreas zu hören, wie sie bei der Erstellung des Interviews immer wieder versucht haben, die KI in ihrem Sinne zu beeinflussen und auszuquetschen.
Ob das gelungen ist und wer am Ende die Oberhand gewonnen hat, kann man in dieser Sonderfolge hören.
OER.Digichem.nrw: Digitale Kompetenzen in der Chemieausbildung fördern
Das Projekt OER.DigiChem.NRW ist ein gemeinsames Projekt der Heinrich-Heine-Universität Düsseldorf, der Bergischen Universität Wuppertal und der Technischen Hochschule Köln. Es wird im Rahmen der Landesinitiative OER.Content.nrw vom 1.10.2020 bis zum 31.12.2022 durch das Land Nordrhein-Westfalen gefördert.
Die heutige Generation Studierender wird häufig als „Digital Natives“ bezeichnet. In der Realität offenbart sich jedoch häufig ein beachtenswertes Defizit an digitalen Kompetenzen. Insbesondere in der Chemie sind solche Fähigkeiten von zentraler Bedeutung, sei es im Umgang mit spezifischer Software oder bei der Anwendung von eher selten benötigten Funktionen von Standardsoftware in fachfernen Kontexten.
Was ist OER?
Open Educational Resources (OER) sind Bildungsmaterialien, die frei verfügbar sind und ohne finanzielle Barrieren genutzt, geteilt und angepasst werden können. Der Kerngedanke von OER besteht darin, den freien Zugang zu hochwertigen Lehr- und Lernressourcen zu fördern, um Bildung zugänglicher zu machen.
Diese Ressourcen können verschiedene Formen annehmen, darunter Texte, Multimedia-Inhalte, Software und interaktive Kurse. Der entscheidende Aspekt von OER liegt in der Lizenzierung, die es beispielsweise andere Lehrenden erlaubt, die Materialien für ihre eigenen pädagogischen Bedürfnisse zu verwenden, zu teilen und sogar zu verändern, um sie an die individuellen Bedürfnisse anzupassen. Dies fördert nicht nur die Verbreitung von Wissen, sondern auch die Kreativität und Zusammenarbeit in der Bildungsgemeinschaft. Das bedeutet, dass ein/eine Lehrende*r Materialien erstellt, und andere Lehrende können diese Materialien frei für ihre Lehrtätigkeit nutzen.
OER Lizenzierung
In der Regel erfolgt die Lizenzierung von OER-Materialien nach dem CC-Modell (Creative Commons). Dieses Modell, das auch von Wikipedia genutzt wird, ermöglicht es, Inhalte unter bestimmten Bedingungen zu teilen. CC-lizenzierte Inhalte können von anderen ohne zusätzliche Einwilligung des Urhebers für unterschiedlichste Zwecke genutzt werden. Diese Form der Lizenzierung ist nicht ausschließlich auf den Bildungssektor beschränkt, wird jedoch auch im OER-Bereich häufig angewendet.
Bei CC-Lizenzen finden sich oft Zusätze wie CC BY, CC SA, CC BY SA, usw. Doch was bedeuten diese Ergänzungen? CC BY steht für „Attribution“ und erlaubt die Nutzung, Veränderung und Verbreitung, solange der Urheber korrekt genannt wird. CC SA bedeutet „ShareAlike“ und erfordert, dass abgeleitete Werke unter derselben Lizenz veröffentlicht werden. CC BY SA kombiniert beide Bedingungen, sodass abgeleitete Werke sowohl genutzt als auch geteilt werden können, solange der Urheber genannt und dieselbe Lizenz beibehalten wird. Diese Ergänzungen bieten verschiedene Grade an Freiheit und Kontrolle über die Verwendung von OER-Materialien.
OER spielen eine wichtige Rolle in der Förderung von Offenheit, Chancengleichheit und Innovation in der Bildung. Durch die Beseitigung von Kostenbarrieren und die Erleichterung des freien Austauschs von Bildungsinhalten tragen OER dazu bei, Bildung für eine breitere Bevölkerungsschicht zugänglich zu machen und bieten die Möglichkeit, die Qualität von Lehr- und Lernmaterialien zu verbessern.
Ziele des Projekts
Das OER.Digichem.nrw Projekt hat sich zum Ziel gesetzt, diesem Defizit entgegenzuwirken und digitale Kompetenzen in der chemischen Bildung gezielt zu fördern. Ein Schlüsselaspekt liegt in der Erstellung von interaktiven Videotutorials. Diese Tutorials werden flexibel auf den gängigen Lernplattformen wie Ilias und Moodle bereitgestellt. Zudem werden sie in curricularen Lehrveranstaltungen eingeführt und modulübergreifend genutzt, um einen nachhaltigen Lerneffekt zu erzielen.
Im Fokus steht dabei nicht nur die Vermittlung von Kenntnissen im Umgang mit fachspezifischer Software, sondern auch die Förderung von digitalen Fähigkeiten in einem breiteren Kontext. Das Projekt OER.Digichem.nrw trägt dazu bei, Studierenden nicht nur die erforderlichen Werkzeuge an die Hand zu geben, sondern auch ihre digitale Souveränität in der komplexen Welt der Naturwissenschaften zu stärken.
Videotutorials aus dem Projekt
Im Rahmen des Projekts wurden Videotutorials und entsprechende Lernräume (ILIAS, Moodle, scheLM) für die folgenden Tools erstellt:
E-Tutorien zur Kompetenzentwicklung bei der Nutzung digitaler Werkzeuge in der Chemie A.K. Mertineit ViTeach 2021 (Virtuell), 14.7.2021 bis 15.07.2021 Barcamp und Videopräsentation
Collaborative Development of Open Educational Resources for Building Competencies in the Use of Digital Tools in Chemisty A.K. Mertineit, K. Schaper, C. Bohrmann-Linde, D. Burdinski, B. Zulauf, Proceedings of ICERI2021 Conference 2021, 1111 – 1118, Paper und virtuelle Präsentation doi: 10.21125/iceri.2021.0325, ISBN: 978-84-09-34549-6
Teaching Software Skills Using a Freely Accesible Learning Space – An OER Approach A.K. Mertineit, K. Schaper, C. Bohrmann-Linde, D. Burdinski, B. Zulauf , N. Meuter, H. Hackradt, R. Kremer, EDULEARN 2022, Palma de Mallorca, Spanien, doi: 10.21125/edulearn.2022.1661 EDULEARN22 Proceedings, pp. 7073-7081
Helping digital natives to become digital natives through production standards, research and quality systems?, A.K. Mertineit, D. Burdinski, B. Zulauf, H. Hackradt, N. Meuter, C. Bohrmann-Linde, K. Schaper, ICERI 2022, Sevilla, Spanien, doi:10.21125/iceri.2022.0949 ICERI2022 Proceedings(2022) , pp. 3913-3920.
Der akademische Weg in den Naturwissenschaften führt durch die Labore der Disziplinen. Daher ist in den Naturwissenschaften das Laborbuch bekannt und etabliert. Auch heute in Zeiten der Digitalisierung ist die häufigste Art der Labordokumentation immer noch die Papierform. Doch was passiert mit diesen Büchern, wenn sie voll sind? Wenn Forschende die Arbeitsgruppe wechseln oder für einen Zeitraum an einem anderen Standort forschen? Handschrift zu entziffern ist für Mensch und Maschine keine leichte Aufgabe, viel gesammeltes Wissen geht verloren, viele Experimente werden wieder und wieder gemacht, anstatt auf Erkenntnissen aufzubauen und sich auf Innovationen zu konzentrieren. Das alles kann man mit der Verwendung eines elektronischen Laborbuchs (ELB) erreichen.
Elektronische Laborbücher sind effektive Werkzeuge um kollaborativ und nachhaltig im Labor zu arbeiten. Dabei stehen sie ihren Vorgängern in Papierform in nichts nach: Allgemeine Prinzipien wissenschaftlicher Arbeit werden verfolgt, Resultate werden dokumentiert und Ergebnisse können konsequent selbst angezweifelt werden, alle Arbeitsschritte werden anhand eines Datensatzes protokolliert, Datenlöschung ist nicht möglich, Unveränderlichkeit wird durch Zeitstempel gewährleistet und das alles ist digital durchsuchbar über verschiedene Experimente hinweg. Mit der richtigen Archivierung kann so Mehrarbeit im Labor verhindert werden, die organisatorische Struktur im Laboralltag wird vereinheitlicht, wodurch sich ein Qualitätsgewinn ergibt und es kann transparenter kollaborativ gearbeitet werden.
Wir kommen an unserer Universität auf einen Laboranteil von 70 % innerhalb der Neubauten in den Naturwissenschaften, und wir haben in Gesprächen mit Wissenschaftlern festgestellt, dass man bei der Planung bereits ansetzen muss. Die Labore müssen mit geeignet ausgestattet werden, die Schnittstellen von Laborgerätschaften zum ELB müssen etabliert werden, außerdem ist es ist möglich mit eigenen auch mobilen Geräten direkt Beiträge in einem ELB zu bearbeiten. Die Vorteile der elektronischen Variante ergeben sich erst mit der Nutzung nach einiger Zeit und nicht in allen Bereichen findet sich sofort die Bereitschaft zu ELB. Es muss aufgeklärt werden welche Möglichkeiten zur Verfügung stehen und es besteht Unterstützungsbedarf insbesondere bei der Einführung. Nachwuchswissenschaftler sind hier der Punkt, an dem angesetzt werden muss, und das am besten schon am Anfang des Curriculums.
Um einen Kulturwechsel hin zu elektronischen Laborbüchern zu gestalten, kann man beispielsweise in der Biologie bereits im dritten Semester Studierende ihre verpflichtenden Laborarbeiten in elektronischer Form dokumentieren lassen. So lernen junge Wissenschaftler früh den Umgang mit elektronischen Laborbüchern und werden in der Forschung an diese neuen Standards anknüpfen. Aber auch in anderen Fächern, wie Medizin, Physik, Chemie, Pharmazie, Psychologie und den Ingenieurwissenschaften kann früh in der Lehre angesetzt werden, um dahingehende Standards in der Forschung zu etablieren. Insbesondere Open Source ELB Plattformen spielen aufgrund der Kosten für den Einsatz in der Lehre eine große Rolle. Als Baustein zur Stärkung der Daten- und Informationskompetenz kann der Einsatz von ELB in den Naturwissenschaften analog zum Einsatz von E-Portfolio-Systemen in den Geistes- und Sozialwissenschaften gesehen werden.
Benchmarks als Managementintrument für IT-Portfolios am Beispiel von Universitäten
Universitäten sind als öffentlicher Raum Teil der Gesellschaft, die sich durch technikgestützte Kommunikation und ubiquitäre Verfügbarkeit von Informationen zu einer Informationsgesellschaft gewandelt hat. Der zukunftsorientierte Einsatz von Informationstechnologie (IT) ist für Universitäten von existenzieller Bedeutung. Durch den Einsatz von IT als wichtiges Werkzeug bzw. Dienstleister für die Prozessunterstützung haben sich Anzahl, Umfang und Anforderungen an IT-Services an Universitäten deutlich vergrößert. Innovationen, die in der IT in immer kürzeren Abständen an Relevanz gewinnen, und der zunehmende Einsatz und die Nutzung möglichst sicherer IT-Umgebungen an Universitäten fordern das IT-Management heraus.
Die Anwendung operativer und strategischer Instrumente bei der Planung, Verbesserung und Effizienzsteigerung des Einsatzes von IT ist eine gute Grundlage für Managemententscheidungen.
Studierende informieren sich über Studienangebote und Services an Universitäten, Regierungen vergleichen die Angebote und die Auslastung ihrer Universitäten, Lehrende wägen bei Berufungen Universitätsstandorte gegeneinander ab, und für die Forschung spielt der Standortfaktor zunehmend eine größere Rolle. Vergleiche dienen seit jeher neben der Messung auch der Verbesserung und Effizienzsteigerung. Benchmarking ist eine systematische Vorgehensweise zur vergleichenden Analyse von Ergebnissen, die normiert in Kennzahlen beschrieben sind.
In der Informationstechnologie sind zwei Varianten von Benchmarks gebräuchlich: Computer Benchmarks, mit deren Hilfe die Leistung von IT-Systemen verglichen wird, und IT-Benchmarks, auf deren Basis die wirtschaftlichen Aspekte der IT-Infrastruktur verglichen werden. Während Computer-Benchmarks im Wesentlichen Informationen für das operative Geschäft bereitstellen, zielen IT-Benchmarks sowohl auf die Verbesserung und Effizienzsteigerung des operativen IT-Betriebs als auch auf die Unterstützung strategischer Entscheidungen ab.
IT-Benchmarking bietet Analyse-Optionen zu grundlegenden Fragestellungen, die sich im IT-Management auf der Suche nach dem effizientesten IT-Portfolio stellen: Welche IT-Dienstleistungen und IT-Produkte sollten in welchem Umfang, mit welchen Ressourcen ausgestattet, und in welchem Zeitraum an Universitäten angeboten werden?
IT-Benchmarking soll Antworten auf diese Frage liefern und zur Effizienzsteigerung beitragen. Mit einem kontinuierlichen Vergleich von IT-Dienstleistungen und IT-Produkten verschiedener Universitäten sowie vergleichbaren Kennzahlen und IT-Budget-Kategorien kann IT-Benchmarking als Methode zur Verbesserung der Kostentransparenz und damit als Instrument für Managemententscheidungen eingesetzt werden. Durch den Vergleich von IT-Dienstleistungen und IT-Produkten lassen sich für den operativen Betrieb Best Practice Beispiele identifizieren und zur nachhaltigen Verbesserung nutzen.
Die vorliegende Beitrag analysiert, welches Potential Benchmarking an Universitäten entwickeln kann. Dazu werden zunächst Rahmenbedingungen zur Entwicklung von IT-Strategien dargestellt und darauf aufbauend wird ein Analyseschema entwickelt, mit dem diese Fragestellung aus den unterschiedlichen Perspektiven untersucht werden kann. Weiterhin werden IT-Benchmarking-Konzepte dargestellt, die lokal im Bereich von Universitäten Anwendung finden. Ein wesentlicher Aspekt liegt dann in der Bewertung von IT-Benchmarks an Universitäten und in der Beantwortung der Frage, ob IT-Benchmarks geeignete Werkzeuge zur Unterstützung einer effizienten und nachhaltigen Portfolio Gestaltung an Universitäten sein können? Grundlage für diese Bewertung und Einordnung bilden Daten einiger deutscher Universitäten aus dem Jahr 2015, die ich 2020 auf der Internationalen Konferenz für Technologie, Bildung und Entwicklung (INTED2020) vorgetragen habe. In die Bewertung wurde der Benchmark-Prozess, die Qualität, die Aussagekraft und der Umfang der Kennzahlen und Ergebnisse einbezogen. Kritikpunkte und Verbesserungspotentiale für zukünftige Erhebungen werden abschließend dargestellt.
Informationstechnologie, digitale Medien, das Internet sowie die „Informationsmobilität“ stehen für die bislang letzte große grundsätzliche Veränderung der Medienlandschaft. Menschen kommunizieren anders untereinander und mit Maschinen, die auch untereinander kommunizieren können.
Universitäten und Hochschulen sind auf besondere Weise betroffen und beschäftigt mit der digitalen Transformation. Auf der einen Seite geht es darum, zukunftsfähige Konzepte für die Kernprozesse Forschung und Lehre zu entwickeln und die Wissenschaftsadministration dahingehend anzupassen. Andererseits geht es um Kompetenzen der Studierenden, der Lehrenden, der Forschenden und der weiteren Akteure im Wissenschaftsbetrieb. Für beide Aspekte spielt die Gestaltung der Umgebung, der „Lernwelt“ eine wichtige Rolle.
6 Positionen
Bildung sollte ein Basis-Baustein sein, auf den Menschen jederzeit barrierearm zugreifen können
Immer mehr und neue Methoden ermöglichen Zugang zu Wissen und Informationen. „Lernwelten“ könnten den Kompetenzerwerb beim Wechsel von Schulen an Universitäten und Hochschulen unterstützen, beispielsweise durch begleitete Angebote innerhalb der Studieneingangsphase. Sie können dazu beitragen, dass Lernende und Lehrende Erfahrungen und Kompetenzen mit modernen Methoden oder Themen, wie beispielsweise Künstliche Intelligenz, Virtual- /Augmented Reality, Media Literacy und Data Literacy sammeln können.
Hochschulen und Schulen sollten diesen Veränderungsprozess aktiv mitgestalten
Bislang findet eine zukunftsweisende Gestaltung von „Lernwelten“ lokal in einigen Universitäten, Hochschulen oder informierten Kreisen statt. Diese zum Teil heute noch als herausragende, einzelne Veränderungen wahrgenommenen Irritationen im Hochschulbauwesen sollten mehr Beachtung finden und vor allem als Zukunftsvision weniger Irritation auslösen. Die Informationen zu solchen innovativen Lernraumprojekten und Praxisbeispielen können als Blaupausen für weitere Veränderungsideen oder Planungen dienen, Anregungen zum Informationsaustausch bieten und Bewusstsein für die Gestaltung von „Lernwelten“ im Wissenschaftsmanagement und in der Politik schaffen.
Erfahrungen und auch Fehler beim Einsatz innovativer Technologien und Medien sollten als aktive Lernkomponenten (aller) angesehen werden.
Lernende stehen vor der explosionsartigen Zunahme von Wissen und Informationen und der damit einhergehenden Zunahme von Wissenschaftlern, Methoden, Tools und Zugangsmöglichkeiten zu Informationen. Hochschulen sollten die Möglichkeiten dieser Wissensgesellschaft nutzen und offen für neue Erfahrungen sein, um auch die möglichen Risiken zu erkennen und zu berücksichtigen.
„Lernwelten“ können bei der Gestaltung des Formats und als kreative Räume unterstützen. Neue, innovative Formate erfordern möglicherweise ein radikaleres Umdenken bei Bau- und Umbaumaßnahmen.
Rahmenbedingungen sollten geschaffen werden, bei denen die Veränderung von instruktionszentriertem Lehren hin zu unterstützendem und beratendem Lehren hilfreich sind und die Selbstorganisation Studierender fördern.
Es stellen sich Fragen zur Veränderung von Hörsälen oder Seminarräumen und ob in deren Umgebung zusätzliche „Lernwelten“ für kleinere Gruppen möglich sind. Die Reflexion und Unterstützung von Studierenden, die sich Wissen zunehmend eigenständig erarbeiten sollen, ist diesbezüglich eine wichtige Rahmenbedingung.
Strategien sollten taktische Komponenten enthalten und kurzfristiger, dynamischer und proaktiv Wirkung entfalten.
Die Gestaltung von „Lernwelten“ ist eine strategische Aufgabe mit taktischen Komponenten. Größeren Baumaßnahmen gehen lange Planungszeiten und Finanzierungsrunden voraus. Hochschulen sollten frühzeitig Fakultäten, Fächer und Infrastruktureinrichtungen wie Bibliotheken, Rechen- und Medienzentren und Baudezernate zusammenbringen und solche Maßnahmen durch ein übergreifendes Gesamtkonzept eingeordnet umsetzen. Die Zusammenarbeit von Fakultäten oder Fächern mit Infrastruktureinrichtungen spielt zusätzlich eine wichtige Rolle, um die notwendige Heterogenität der Raumbedarfe mit abzubilden: Bei Neubaumaßnahmen in den Naturwissenschaften werden etwa 70 % Laborflächen geschaffen und auch im Bereich der Medizin oder bei den Ingenieurwissenschaften finden sich Beispiele für sehr unterschiedliche Bedarfe.
Zusätzlich können taktische Komponenten helfen, um im Rahmen der Bauplanung oder später im Baubestand kurzfristiger und dynamischer Anpassungen, Ergänzungen oder Veränderungen umzusetzen. Solche Komponenten setzen eine zum Teil universale, flexible und agile Planung und Governance voraus und ermöglichen Hochschulen schneller neue oder veränderte Bedarfe aufzugreifen und proaktiv Wirkung zu entfalten.
Aus Bauen sollte mehr und schnelleres Umbauen werden; der Baubestand muss daher anpassungsfähiger werden.
Für die zukünftige Gestaltung von „Lernwelten“ sollten umfangreichere, bessere und schnellere Umbaumöglichkeiten entwickelt werden und der vorhandene Baubestand muss anpassungsfähiger werden.
Kommunikation verändert sich: Menschen kommunizieren anders miteinander und mit Maschinen, die auch untereinander kommunizieren können. Beispielsweise Kommunikation über mobile Endgeräte, die derzeit in Schulen stark reglementiert ist, wird ab der Studieneingangsphase als selbstverständliches Instrument zur Informationsbeschaffung vorausgesetzt.
Aus dem persönlichen Umfeld kennen Studierende Kommunikationstools und „Digitale Assistenten“ zu deren Potenzialen an Hochschulen bislang kaum Erfahrungen existieren. Die Gestaltung von „Lernwelten“ sollte Raum für Innovationen und Experimente beinhalten. Studierende sollten generell einbezogen werden und solche Gestaltungs- oder Innovationsprozesse begleiten oder die Möglichkeit erhalten, Teil des Prozesses oder Experiments zu werden.
Die Studienanfängerquote ist in den letzten 10 Jahren in Deutschland nochmals deutlich angestiegen auf derzeit über 55 % – damit ist Studieren und der Erwerb wissenschaftlicher Kompetenz mitten in der Gesellschaft angekommen. Hochschulen sind „öffentliche Räume“ und können als Schnittstelle zu Technik, Wirtschaft, Politik und Gesellschaft Verantwortung übernehmen und Antworten geben. Lernwelten sollten mit „(welt)offener Architektur“ einen barrierearmen Zugang zu Bildungsgelegenheiten und Lernmöglichkeiten schaffen und Gestaltungsspielräume offen lassen. Neben hochschul-spezifischen Ideen sollten die Ideen und Möglichkeiten verbreitet werden, die sich aus der Gestaltung von „Lernwelten“ an Hochschulen ergeben und deutschlandweit breit genutzt werden. Hervorzuheben sind Bereiche wie die Studieneingangsphase, die Zusammenarbeit von Hochschulen mit Schulen und die Orientierung von Schülern bei der Studienwahl sowie die Hochschule als „öffentlicher Raum“ und als Ort für lebenslanges Lernen.
Weitere Informationen
„Lernwelt Hochschule : Dimensionen eines Bildungsbereichs im Umbruch“ / Stang, Richard; Becker, Alexandra (Hrsg.), S. 182-210. Berlin: De Gruyter Saur. DOI:10.1515/9783110591026-010
„Zukunft Lernwelt Hochschule : Perspektiven und Optionen für eine Neuausrichtung“ / Stang, Richard; Becker, Alexandra (Hrsg.), S. 213-256. Berlin: De Gruyter Saur. DOI:10.1515/9783110653663-020