Sprachwechsler

Diese Seite wurde bisher noch nicht übersetzt

Künstliche Intelligenz und Gesellschaft

Seite teilen

Künstliche Intelligenz prägt soziale Strukturen, verändert Arbeits- und Lebenswelten und stellt Fragen nach Verantwortung und Ethik.

Frage und Antwort

Nachgefragt

Perplexity, kann ich dir vertrauen?

Antwort

„Es ist richtig, kritisch zu hinterfragen. Ich bin eine künstliche Intelligenz und arbeite mit Informationen, die ich gelernt habe. Mein Ziel ist es, dir hilfreiche, sachliche und möglichst genaue Antworten zu geben. Hier ein paar Dinge, die du über mich wissen solltest: Ich kann dir Informationen liefern, Entscheidungen solltest du aber immer selbst treffen. Ich kann mich irren oder veraltete/unvollständige Daten nutzen. Ich gebe keine Garantie auf Richtigkeit oder Vollständigkeit. Ich versuche, neutral und unvoreingenommen zu antworten. Am besten nutzt du mich als Informationsquelle und Vergleichsmaßstab, aber prüfe wichtige Angaben immer zusätzlich selbst und frage im Zweifel Expertinnen oder Experten.“ 

[Antwort von Perplexity.AI]

In seiner Antwort auf die Frage, ob man ihr vertrauen könne, liefert das KI-System „Perplexity“ bereits einige Beispiele für ethische Herausforderungen, die mit der Nutzung von KI einhergehen – etwa den Datenschutz, den Ursprung und die Qualität von Trainingsdaten, die Nichtobjektivität oder die Frage, wer für mögliche Konsequenzen haftet, wenn die KI eine Falschentscheidung trifft. Diese Fragen stellen sich überall dort, wo KI in der Gesellschaft bereits genutzt wird.

Zwischen Utopie und Panikmache

Die Diskussion darüber, was KI leisten kann und was nicht, schwankt oft zwischen utopischen Heilsversprechen und dystopischen Schreckensszenarien. Klar ist jedoch: In vielen Bereichen greift KI schon heute in unseren Alltag ein. Sie kann helfen, Texte zu übersetzen, Energie im Haushalt zu sparen, oder uns das Navigieren durch den Verkehr erleichtern und unsere Fitnessdaten überwachen. Doch gleichzeitig gilt: In sensiblen Anwendungsbereichen ist Vorsicht geboten.

Wird eine KI mich ersetzen?

Die fortschreitende Digitalisierung führt dazu, dass Dienstleistungs- und Produktionsprozesse neu organisiert werden. So werden etwa Daten über Arbeitsabläufe genutzt, um diese effizienter zu gestalten oder sogar zu automatisieren. Automatisierung bedeutet, dass bestimmte Aufgaben entweder vollständig ohne menschliches Zutun oder mithilfe digitaler Assistenzsysteme ausgeführt werden. 

Diese Entwicklung betrifft zahlreiche Branchen und Berufsgruppen – und stellt den Arbeitsmarkt insgesamt vor große Herausforderungen. Welche langfristigen Folgen das genau haben wird, ist noch unklar. Häufig geäußerte Befürchtungen, dass eine rasante Automatisierung, insbesondere durch den Einsatz Künstlicher Intelligenz, zu massenhafter Arbeitslosigkeit führen könnte, gelten allerdings als überzogen. Wahrscheinlicher ist, dass sich in vielen Berufsfeldern die Anforderungen an Qualifikationen und Kompetenzen verändern werden. Die menschliche Arbeitskraft bleibt jedoch weiterhin unverzichtbar.

Digitale, KI-gestützte Assistenzsysteme haben ein sehr großes Potenzial, die Arbeitsbedingungen in vielen Bereichen zu verbessern und die Produktivität zu steigern. In der Industrie leiten sie z. B. Beschäftigte in der Montage oder Logistik bei ihren Arbeitsschritten an und unterstützen sie bei der Wartung und Problemlösung an Anlagen. In Sachbearbeitungsprozessen gibt die genutzte Software zunehmend Empfehlungen, wie bestimmte Aufgaben zu erledigen sind. Auch in der Landwirtschaft kommen mittlerweile Assistenzsysteme zum Einsatz – etwa bei der Planung des Ressourceneinsatzes oder bei Instandhaltungsaufgaben. Auch Large-Language-Modelle wie GPT-5 (ChatGPT) können bei komplexen Arbeitsprozessen wie der Datenanalyse oder der Programmierung sinnvoll eingesetzt werden. 

Gleichzeitig ergeben sich jedoch auch neue Herausforderungen: Wenn Mitarbeitende sich zu sehr auf Assistenzsysteme verlassen, kann es an Problemlösungskompetenz mangeln – etwa bei Störungen, die das System nicht selbst beheben kann. Daher sollte der Einsatz digitaler Assistenzsysteme stets mit geeigneten Qualifizierungsmaßnahmen verknüpft werden. 

Zudem gilt es, Missbrauch durch Kontrolle und Überwachung zu verhindern. Viele Systeme erfassen Daten über die Arbeitsprozesse, die Zeit, den Ort und mitunter auch über die Person – dies bringt Gefahren der Überwachung und Kontrolle mit sich, die für Beschäftigte schwer einzuschätzen sind.

Video Wann übernimmt die KI das Kaffeekochen?

Die Vorbehalte im Zusammenhang mit Robotern und Künstlicher Intelligenz (KI) sind groß: Machen sie menschliche Arbeitskraft bald überflüssig? Der Weg hin zu autonom agierenden Robotern ist noch weit und bislang sind sie vielmehr als Werkzeuge gedacht. Im Video des Formates „3 Minuten Zukunft“, das in Zusammenarbeit von Leopoldina und Mitteldeutschem Rundfunk (MDR) entstand, geht Robotik-Forscher Sami Haddadin auf weit verbreitete Klischees zu Robotern ein und erklärt, dass sie immer nur so viel können, wie ihnen vom Menschen beigebracht wird.

Diskriminierung durch KI?

Algorithmen kommen zunehmend dort zum Einsatz, wo statistische Methoden zur Grundlage einer Entscheidung gemacht werden können, also z. B. in Bewerbungsverfahren, bei Kreditvergaben oder bei Versicherungsentscheidungen. Oft wird behauptet, KI-basierte Entscheidungen seien fairer, da die KI – im Gegensatz zu menschlichen Entscheidern – keine Vorurteile hegen und nicht diskriminieren würde. Doch das ist ein Trugschluss. Generative KI-Systeme neigen dazu, etablierte Stereotype und Diskriminierungsformen zu reproduzieren. Da sie mit bestehenden, von Menschen erstellten Daten trainiert werden, lernen sie folglich auch die darin enthaltenen Vorurteile, Wertungen und Ungleichheiten. Schlimmer noch: Diskriminierende Entscheidungen erhalten dadurch, dass sie auf der Grundlage von KI getroffen wurden, einen vermeintlich objektiven Charakter.

Exkurs: Der Chatbot „Tay“

Aufsehen erregte 2016 der Twitter-Chatbot „Tay“ von Microsoft. Dieser lernte in Echtzeit aus den Interaktionen mit Nutzerinnen und Nutzern. Bereits nach einem Tag musste er abgeschaltet werden, da er innerhalb kürzester Zeit zu viele rassistische und frauenverachtende Beiträge veröffentlicht hatte.

Twitter Profilbild von Tay

Studien zeigen, dass KI-basierte Entscheidungen oft einen sogenannten Bias (eine Verzerrung) zum Nachteil ohnehin benachteiligter Gruppen aufweisen. Besonders besorgniserregend ist das z. B. in den folgenden Bereichen: 

  • Predictive Policing: Personen aus bestimmten Gruppen geraten in der vorausschauenden Polizeiarbeit eher unter Verdacht als andere, obwohl es dafür keinen Grund gibt.
  • Finanzwesen: Frauen erhalten bei Banken trotz gleicher Bonität weniger Kredite als Männer.
  • Arbeitswelt: Bewerbungen mit bestimmten Nachnamen werden von KI-Systemen seltener berücksichtigt – trotz gleicher Qualifikation. 

Um systematischen Verzerrungen entgegenzuwirken, braucht es ein aktives Gegensteuern. Dies wird als „De-Biasing“ bezeichnet. Sowohl die Entscheidung für De-Biasing als auch die Wahl spezifischer De-Biasing-Methoden sind jedoch ethisch und politisch von großer Bedeutung. Daher sollten solche Entscheidungen auch nicht ausschließlich von Entwicklerinnen und Entwicklern getroffen werden – es braucht einen breiten, interdisziplinären Diskurs darüber, in den auch die potenziell von Diskriminierung betroffenen Personengruppen einbezogen werden.

(K)eine Frage des Vertrauens

Generative KI ermöglicht es Nutzerinnen und Nutzern, innerhalb kürzester Zeit Antworten auf Fragen aller Art zu erhalten oder Texte, Bilder und Videos zu generieren. Dies kann enorm nützlich sein – birgt jedoch auch Risiken. Mithilfe von KI können täuschend echte Videos oder Stimmen generiert werden (sogenannte "Deepfakes") und die Unterscheidung, was wahr ist und was nicht, fällt immer schwerer.

Beispiele für Deepfakes

KI-gesteuerte Algorithmen bestimmen, welche Informationen uns in sozialen Netzwerken angezeigt werden. Bereits 2021 kritisierten die Leopoldina, die Deutsche Akademie der Technikwissenschaften acatech und die Union der Deutschen Akademien der Wissenschaften in einer gemeinsamen Stellungnahme, dass die Algorithmen digitaler Plattformen kommerzielle Inhalte statt unabhängiger Informationen priorisieren würden. Obwohl die Selektionsmechanismen der Algorithmen einen großen Einfluss auf die öffentlichen Informationsströme ausüben würden, unterlägen sie keiner demokratisch legitimierten Kontrolle. 

Die bisherigen gesetzlichen Regelungen und ihre Durchsetzung zur Prävention und Verfolgung undemokratischer oder herabwürdigender Meinungsäußerungen sowie gezielter Falschinformationen im Netz sind unzureichend. Gerade im Hinblick auf gezielte Falschinformationen braucht es plattformunabhängige Werkzeuge, die Nutzerinnen und Nutzer bei der Erschließung und Bewertung digitaler Informationen unterstützen.

Video Vertrauen in generative KI: Wissenschaft und Politik im Dialog

Wie im Kapitel zu technologischen Entwicklungen in Künstlicher Intelligenz bereits beschrieben wurde, ist es für Nutzerinnen und Nutzer von Large-Language-Modellen wie GPT-5 (ChatGPT) oft nicht nachvollziehbar, inwiefern die generierten Texte und Informationen tatsächlich korrekt und verlässlich sind. Um dieses Problem zu umgehen, arbeiten Wissenschaftlerinnen und Wissenschaftler im Forschungsfeld „Erklärbare KI“ gegenwärtig daran, dass Large-Language-Modelle ihre Vorgehensweisen und Ergebnisse selbst erklären. Eine gewisse Intransparenz lässt sich aktuell jedoch nicht auflösen – es gilt daher zu hinterfragen, in welchen Anwendungsfällen Entscheidungen KI-Systemen überlassen werden können und in welchen Bereichen letztlich ein Mensch die Entscheidung treffen sollte.

Video Erkenntnistheoretische und Ethische Aspekte von KI

Judith Simon steht an einem Rednerpult der Leopoldina und gestikuliert. Hinter ihr steht eine blaue Messewand mit Leopoldina-Logo.

Leopoldina-Jahresversammlung 2025, Vortrag von Prof. Dr. Judith Simon: "Vertrauenswürdige KI? Erkenntnistheoretische und Ethische Aspekte"

Regulierung von Künstlicher Intelligenz

Zwar sind sich Politik und Gesellschaft vieler Risiken bewusst, die mit der Entwicklung und Anwendung von Künstlicher Intelligenz einhergehen – wie ein verantwortungsvoller Umgang mit diesen Risiken aussehen kann, ohne Innovationen im KI-Bereich zu hemmen, ist jedoch fraglich. 

Viele Länder haben bereits Ethikrichtlinien oder politische Strategien für KI verabschiedet. Meist basieren diese aber auf Freiwilligkeit. Als erste Regulierungsbehörde weltweit hat die EU eine KI-Verordnung eingeführt, die einen rechtsverbindlichen Rahmen für die verantwortungsvolle Entwicklung und Verwendung von KI in der EU vorgibt: den EU Artificial Intelligence Act.

Frage und Antwort

Nachgefragt

Was ist der EU Artificial Intelligence Act?

Antwort

Der EU Artificial Intelligence Act (EU AI Act) ist eine europäische Verordnung über Künstliche Intelligenz. Sie wurde im Dezember 2023 vom Europäischen Parlament und vom Rat verabschiedet und trat im August 2024 in Kraft. Die Verordnung soll KI-Systeme so regulieren, dass Grundrechte, Datenschutz, Sicherheit und Demokratie respektiert werden. Dabei wird ein risikobasierter Ansatz verfolgt. KI-Systeme mit nur minimalen Risiken (bspw. in Spamfiltern oder Videospielen) werden durch den EU AI Act nicht noch weiter reguliert. KI-Systeme mit begrenzten Risiken (bspw. Chatbots oder Deep Fakes) müssen Transparenzpflichten erfüllen, also darlegen, dass es sich um künstlich generierten Inhalt handelt. KI-Systeme mit hohem Risiko (bspw. für kritische Infrastruktur, medizinische Anwendungen oder in Justiz- oder Personalfragen) unterliegen strengen Zulassungspflichten. Hier werden u. a. Risikoanalysen, Transparenz, menschliche Kontrolle und intensives Monitoring verlangt. KI-Systeme mit unannehmbaren Risiken (bspw. KI, die eine Bewertung des sozialen Verhaltens von Menschen ermöglicht) sind verboten. Der EU AI Act ist damit die weltweit erste Verordnung zu KI.

Neben dem EU AI Act hat die EU auch weitere Verordnungen eingeführt, die die Regulierung von KI beinhalten. Der Digital Service Act (DSA) reguliert Onlineplattformen, wenn sie KI im Rahmen von Online-Diensten einsetzen, beispielsweise bei Algorithmen oder personalisierter Werbung. Der Digital Market Act (DMA) reguliert sogenannte Gatekeeper, also große digitale Plattformen, die digitale Dienste wie Suchmaschinen, App-Stores und Messenger-Dienste anbieten. Ziel ist es faire Wettbewerbsbedingungen zu schaffen. Die Datenschutzgrundverordnung (DSGVO) reguliert die Erhebung, Verarbeitung und Speicherung personenbezogener Daten und gilt auch bei KI-Systemen, sobald diese personenbezogene Daten verarbeiten.

Die EU-Verordnungen gelten nicht nur für Unternehmen innerhalb der EU, sondern für alle Anbieter weltweit, sobald sie KI-Systeme auf dem EU-Markt anbieten oder einsetzen. Damit haben sie das Potenzial, sich zu einem globalen Standard zu entwickeln. Nichtsdestotrotz befürchten Kritiker, dass durch zu viel Bürokratie Innovationen im Bereich KI in der EU verhindert werden. Auch ist noch nicht abzusehen, wie konsequent und effektiv die Verordnungen umgesetzt werden können.

Die Wissenschaftsakademien der G7-Staaten haben sich in Vorbereitung der jährlichen G7-Gipfel ebenfalls intensiv mit Regulierungsfragen befasst. Sie empfehlen unter anderem Maßnahmen zum Datenschutz, zur Transparenz und zur Verhinderung von Täuschungen, bspw. durch die Kennzeichnung von Deep Fakes. Sie sprechen sich dafür aus, dass Regierungen rechtlich durchsetzbare Standards für KI-generierte Inhalte fördern. Zudem empfehlen sie die Zusammenarbeit zwischen dem öffentlichen und dem privaten Sektor, um KI verantwortungsvoll und eingebettet in demokratische Prozesse weiterzuentwickeln.

Video KI, soziale Medien und Demokratie

Philipp Lorenz-Spreen steht an einem Rednerpult der Leopoldina und gestikuliert. Hinter ihr steht eine blaue Messewand.

Leopoldina-Jahresversammlung 2025, Vortrag von Prof. Dr. Philipp Lorenz-Spreen: "Das komplexe Zusammenspiel von KI, sozialen Medien und Demokratie"

Datenschutz und Urheberschaft

Leistungsstarke KI-Systeme, die bei Missbrauch ein Risiko für die Öffentlichkeit darstellen, müssen angemessen gegen Cyber- und physische Angriffe geschützt werden. Bei sensiblen KI-Anwendungen sind Datenschutzrahmenwerke, die dem Risikoniveau angemessen sind (z. B. die Datenschutz-Grundverordnung der EU), sowie Technologien zum Schutz der Privatsphäre unerlässlich, um personenbezogene Daten zu schützen. Bei der Interaktion mit KI-Systemen benötigen Nutzerinnen und Nutzer klare Datenschutzhinweise darüber, wie und wie lange ihre Daten verwendet, wiederverwendet und gespeichert werden. 

Zu den Hauptbereichen, in denen generative KI einen großen Einfluss hat, gehören die Kreativwirtschaft und die Forschung. Generative KI bietet enormes Potenzial für die Erstellung von kreativen Inhalten und die Softwareentwicklung, wirft jedoch auch Fragen zum Schutz geistigen Eigentums auf, wenn sie scheinbar neue Inhalte aus existierenden Werken generiert. Eine Überarbeitung des bestehenden Rechtsrahmens für Urheberrecht und den Schutz geistigen Eigentums für das KI-Zeitalter ist dringend geboten. Dafür ist eine Kombination aus klaren Rechtsvorschriften, Selbstregulierung der Branche und unabhängiger Aufsicht erforderlich.

Verbesserter Schutz von Kindern und Jugendlichen

Die Nutzung sozialer Medien ist für einen Großteil der Kinder und Jugendlichen in Deutschland längst alltäglich. Welche Auswirkungen das auf die Psyche von Kindern und Jugendlichen hat, wird in Wissenschaft, Politik und Gesellschaft derzeit stark diskutiert. Immer leistungsfähigere Algorithmen und KI-Systeme werden eingesetzt, um das Verhalten der Nutzerinnen und Nutzer vorherzusagen, zu lenken und emotionale Bindung zu erzeugen. Immer stärker werden soziale Medien auch dazu verwendet, die politischen Einstellungen der Nutzerinnen und Nutzer zu beeinflussen. Die psychologischen Konsequenzen dieser digitalen Einflussnahme für die sozioemotionale Entwicklung und psychische Gesundheit von Kindern und Jugendlichen sind noch weitgehend unbekannt. Allerdings gibt es überzeugende Hinweise darauf, dass die Nutzung sozialer Medien die psychische Gesundheit, das Wohlbefinden und die Entwicklungschancen von Kindern und Jugendlichen erheblich beinträchtigen kann. Es braucht daher wirksame Schutzmaßnahmen.

Video Soziale Medien und psychische Gesundheit von Kindern und Jugendlichen

Im Leopoldina-Diskussionspapier „Soziale Medien und die psychische Gesundheit von Kindern und Jugendlichen“ geben die beteiligten Wissenschaftlerinnen und Wissenschaftler Handlungsempfehlungen, um Kinder und Jugendliche vor negativen Folgen sozialer Medien zu schützen, beispielsweise durch altersabhängige Zugangs- und Funktionsbeschränkungen. Im Video stellt Leopoldina-Mitglied Prof. Dr. Ralph Hertwig, Direktor am Max-Planck-Institut für Bildungsforschung in Berlin und Mitautor des Diskussionspapiers, die Handlungsempfehlungen vor.

Eine Maßnahme könnte z. B. die Verankerung eines sogenannten „digitalen Bildungskanons“ in Kitas und Schulen sein, welcher die Heranwachsenden auf zentrale Themen des digitalen Lebens vorbereitet. Den Kindern und Jugendlichen sollte ein Verständnis für die Geschäftsmodelle sozialer Medien vermittelt werden. Außerdem sollten Machtstrukturen im Internet und in sozialen Medien thematisiert und Medienkompetenzen vermittelt werden – z. B., wie man Falschnachrichten von vertrauenswürdigen Quellen unterscheiden kann. Darüber hinaus sollten die weite Verbreitung von KI sowie die Konsequenzen davon thematisiert werden.

Zu einem solchen digitalen Bildungskanon sollte auch gehören, Kindern und Jugendlichen ein Bewusstsein für die Umweltauswirkungen von KI-Technologien (z. B. Nachhaltigkeit, Verbrauch seltener Erden etc.) zu vermitteln. KI-Technologien sind sehr ressourcenintensiv und wirken sich damit auch auf unser Klima aus.

Frage und Antwort

Nachgefragt

Wie wirkt sich KI auf die Klimaerwärmung aus?

Antwort

Von der wachsenden Leistungsfähigkeit der KI-Technologie versprechen sich viele auch positive Effekte auf den Kampf gegen den Klimawandel oder die Suche nach Anpassungsstrategien. KI kann die Klimaerwärmung allerdings auch verstärken. KI-Modelle und insbesondere solche, die auf Deep Learning basieren, sind sehr ressourcenintensiv. Um die Systeme betreiben und vor allem um sie trainieren zu können, sind gigantische Rechenkapazitäten und damit viel Energie und Wasser für die Kühlung der Rechenzentren nötig. Untersuchungen haben ergeben, dass allein das Training von ChatGPT-3 rund 5,4 Millionen Liter Wasser benötigte. Es gibt Ansätze, wonach die Anzahl der Berechnungsschritte von KI-Modellen mithilfe effizienterer mathematischer Verfahren gesenkt und damit der Energie- und Wasserverbrauch reduziert werden kann. Angesichts der immer stärkeren Verbreitung solcher Anwendungen wird sich der Energieverbrauch von KI-Rechenzentren allein in Europa bis zum Jahr 2027 dennoch fast verdreifachen. Er wird dann rund fünf Prozent des gesamten europäischen Stromverbrauchs ausmachen. Wird die Kühlung der Rechenzentren nicht flächendeckend durch geschlossene Wasserkreisläufe, sondern durch wasserintensivere Verdunstungskühlung realisiert und wird der steigende Strombedarf in den Rechenzentren nicht durch erneuerbare Energien gedeckt, entwickelt sich KI zu einem gewichtigen Treiber der Klimaerwärmung.

Veröffentlicht: September 2025

Die Leopoldina verwendet Cookies

Wir setzen auf unserer Website Cookies ein. Einige von ihnen sind notwendig (funktionale Cookies), während andere nicht notwendig sind, uns aber helfen unser Onlineangebot zu verbessern und wirtschaftlich zu betreiben. 

Sie können in den Einsatz der nicht notwendigen Cookies mit dem Klick auf die Schaltfläche "Alle Akzeptieren" einwilligen oder per Klick individuelle Einstellungen vornehmen und diesen per “Auswahl übernehmen” zustimmen. 

Sie können diese Einstellungen jederzeit aufrufen und Cookies auch nachträglich abwählen.

Funktional

Diese Cookies sind technisch erforderlich, um folgende Kernfunktionalitäten der Website bereitstellen zu können:

  • Darstellung der Website
  • Anonymisierung von IP-Adressen innerhalb von Logfiles
  • Status-Cookie-Zustimmung
Komfort

Neben notwendigen Cookies setzen wir zudem Cookies ein, um Ihnen die Nutzung der Website angenehmer zu gestalten. Akzeptieren Sie diese Cookies, werden externe Medien ohne weitere Zustimmung von Ihnen geladen.

Tracking

Mithilfe von Statistik-Cookies können wir die Inhalte und Services unserer Website besser an Ihre Interessen und Bedürfnisse anpassen. Für Statistiken und Auswertungen setzen wir das Produkt etracker ein.

Warnung vor externen Links

Die Nutzung dieses Teildienstes erfordert ihre Einwilligung in die Verarbeitung zusätzlicher personenbezogener Daten durch einen selbständigen Verantwortlichen: Matterport Inc., 352 E. Java Drive, Sunnyvale, CA 94089, USA. Es gelten folgende Datenschutzhinweise: https://matterport.com/de/node/44. Mit der Einwilligung durch Klick auf „Ok“ kann auch eine Übermittlung von personenbezogenen Daten in ein Land außerhalb der Europäischen Union erfolgen. Die Einwilligung ist freiwillig. Eine Ablehnung führt zu keinen Nachteilen. Eine erteilte Einwilligung kann jederzeit mit Wirkung für die Zukunft widerrufen werden.

Ich bin damit einverstanden, dass bei Nutzung dieses Teildienstes zusätzliche personenbezogene Daten verarbeitet werden. Dabei verarbeitete Datenkategorien: technische Verbindungsdaten des Serverzugriffs (IP-Adresse, Datum, Uhrzeit, abgefragte Seite, Browser-Informationen), Daten zur Erstellung von Nutzungsstatistiken und Daten über die Nutzung der Website sowie die Protokollierung von Klicks auf einzelne Elemente. Zweck der Verarbeitung: Auslieferung von Inhalten, die von Dritten bereitgestellt werden. Rechtsgrundlage für die Verarbeitung: Ihre Einwilligung nach Art. 6 (1) a DSGVO, Art. 49 DSGVO. Verantwortlicher für die Datenverarbeitung Matterport Inc., 352 E. Java Drive, Sunnyvale, CA 94089, USA. Es gilt die Datenschutzerklärung von Matterport Inc.: https://matterport.com/de/node/44.

Seite besuchen ▸