Daten sind das Rohmaterial der digitalen Ära und die nächste Stufe der industriellen Entwicklung. Prozesse, Dienstleistungen und Produkte erzeugen eine unüberschaubare Vielzahl von Daten. Kunden, deren Verhalten – auch aus Ressourcen, welche nicht von dem Unternehmen betrieben werden (Paradebeispiel: Facebook) – sowie Infrastruktur- und Rahmendaten erlauben ein nahezu beliebig granulares Bild über das Verhalten der Kunden, Services, Wettbewerber, Märkte usw.
Es wird Unternehmen geben, welche allein sich über das Vorhandensein, die Struktur und die Rekombination von Daten und Datenmodellen definieren.
Data Thinking, was ist das?
Data Thinking schält Einsichten und neue Geschäftsmodelle aus den vielfältigen Datenquellen. Sie werden zueinander in Beziehung gesetzt und die Relevanz dieser Quellen und Daten zueinander mit diesem Blickwinkel neu konfiguriert. Wertschöpfungsketten, Produkte, Produktionsfaktoren, Unternehmen und Marken entstehen aus diesen Einsichten. Die Vorgehensweise ist explorativ und empirisch und versteht sich als Management-Konzeption, welche andere Methoden und Konzepte aufgreift und integriert. Sie sind vor dem Hintergrund der Nachhaltigkeit des Geschäftsansatzes auch experimentell und agil, denn wenn die datengetriebene Kombination nicht am Markt reüssiert, dann werden sie erneut – zu neuen Firmen, Marken etc. – rekombiniert. Die kreative Suche, Hinterfragen und Zerstörung von Annahmen und Gewissheiten ist implizit Bestandteil dieses Management-Konzepts.
Prozess
Der wesentliche Definitionsprozess fundiert auf vorhandene und neu kreierte Geschäftsobjekte (Business objects) wie bspw. bestehende Firmen, Produkte, Dienstleistungen, API usw. Im nächsten Schritt werden bereits vorhandene Datenströme und -silos analysiert und extrahiert, um Quick Wins zu erreichen. Bereits hier entstehen schon relevante Wertschöpfungsbeiträge. Im weiteren Schritt, werden die Geschäftsobjekte darauf hin evaluiert, wie mit zusätzlichen Maßnahmen weitere Daten erzeugt werden können (z.B. Einbau von Sensoren und Aktoren, Ausbau und Verbesserung von Customer Touch Points, Marketing-Maßnahmen). Diese Daten fließen wieder in den erweiterten Datenpool mit ein. Im vierten Schritt werden die einzelnen Daten und Datengruppen hinsichtlich weiterer Verknüpfungen und Aussagen weiter evaluiert, kontinuierlich erweitert und ergänzt. Wesentlich – aber bereits auch in den anderen Schritten schon inhärenter Bestandteil – ist das hypothesengetriebene Testen von neuen Geschäftsobjekten und -logiken; entweder durch Expertenvorgaben oder durch algorithmusgetriebene Datenevaluation. Fünfter und letzter Schritt ist die grundsätzlich eine Wiederholung der vorangegangenen Schritte mit dem Fokus auf Analyse und Controlling der erreichten Ergebnisse und Anpassung; insoweit also eine übliche Feedback/Controlling-Stufe.
Prozess Data Thinking
Eingebettet ist der Prozess durch ein auf PRINCE 2 basierendes Projektmanagement, welches agil aufgesetzt und gesteuert wird. Feedback und Evaluierung erfolgt möglichst nutzernah mit Einsatz von Methodiken aus dem Design Thinking.
Conditio sine qua non ist die Herangehensweise, dass anfangs das Ergebnis offen ist und die Grundlage lediglich die Datenbasis ist. Ob am Ende dann eine neue Firma, ein Produkt oder lediglich ein neues oder auch optimiertes Dienstleistungsangebot steht, ist freibleibend.
Es gibt keine vordefinierten Werkzeuge für das Data Thinking, aber die vorhandenen Big Data, Datawarehouse, Data Science-Tools (z.B. R, Qlikview) bieten einen guten Einstieg, ebenso wie das gute alte Excel. Tools wie Splunk machen insbesondere die für das Nicht-IT-Management schwer greifbaren Maschinendaten bearbeitbar.
Einordnung
Data Thinking ist also ein Managementkonzept, welches bewusst Geschäftsimpulse aus Daten bezieht und sich von den daraus gewonnenen Einsichten und Perspektiven leiten lässt. Es ist kein ausschließlicher Ansatz, welcher die üblichen Management-Konzepte komplett ersetzt, sondern vielmehr ergänzt er diesen um einen Blickwinkel, welcher vorurteilsfrei nur aus den verfügbaren Daten entsteht, welche dem Unternehmen zur Verfügung stehen. Die Einsichten können dabei die Annahmen des bisherigen, expertenbasierten Managements bestätigen oder auch komplett in Frage stellen.
@article{teubi:2018aa,
title = {Introduction to Deep Learning},
author = {teubi},
url = {https://media.ccc.de/v/35c3-9386-introduction_to_deep_learning#t=250},
year = {2018},
date = {2018-12-27},
journal = {35c3},
abstract = {This talk will teach you the fundamentals of machine learning and give you a sneak peek into the internals of the mystical black box. You'll see how crazy powerful neural networks can be and understand why they sometimes fail horribly.
Computers that are able to learn on their own. It might have sounded like science-fiction just a decade ago, but we're getting closer and closer with recent advancements in Deep Learning. Or are we?
In this talk, I'll explain the fundamentals of machine-learning in an understandable and entertaining way. I'll also introduce the basic concepts of deep learning. With the current hype of deep learning and giant tech companies spending billions on research, understanding how those methods works, knowing the challenges and limitations is key to seeing the facts behind the often exaggerated headlines.
One of the most common applications of deep learning is the interpretation of images, a field that has been transformed significantly in recent years. Applying neural networks to image data helps visualising and understanding many of the faults as well as advantages of machine learning in general. As a research scientist in the field of automated analysis of bio-medical image data, I can give you some insights into these as well as some real-world applications.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
This talk will teach you the fundamentals of machine learning and give you a sneak peek into the internals of the mystical black box. You'll see how crazy powerful neural networks can be and understand why they sometimes fail horribly.
Computers that are able to learn on their own. It might have sounded like science-fiction just a decade ago, but we're getting closer and closer with recent advancements in Deep Learning. Or are we?
In this talk, I'll explain the fundamentals of machine-learning in an understandable and entertaining way. I'll also introduce the basic concepts of deep learning. With the current hype of deep learning and giant tech companies spending billions on research, understanding how those methods works, knowing the challenges and limitations is key to seeing the facts behind the often exaggerated headlines.
One of the most common applications of deep learning is the interpretation of images, a field that has been transformed significantly in recent years. Applying neural networks to image data helps visualising and understanding many of the faults as well as advantages of machine learning in general. As a research scientist in the field of automated analysis of bio-medical image data, I can give you some insights into these as well as some real-world applications.
@article{Dorr:2018aa,
title = {Cambridge Analytica - Wie eine Firma die Daten von Millionen Facebook-Nutzern missbrauchte},
author = {Julian Dörr},
url = {http://www.sueddeutsche.de/digital/cambridge-analytica-wie-eine-firma-die-daten-von-millionen-facebook-nutzern-missbrauchte-1.3910421},
year = {2018},
date = {2018-03-20},
journal = {Süddeutsche.de},
abstract = {Cambridge Analytica hat die privaten Daten von Millionen US-amerikanischen Facebook-Nutzern gesammelt.
Facebook erfuhr bereits 2015 von dem Datenleck, informierte seine Nutzer aber nicht.
Das Unternehmen forderte Cambridge Analytica auf, die Daten zu löschen. Dass dies bis heute nicht geschehen ist, zeigt eine Recherche der New York Times und des Observers.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
Cambridge Analytica hat die privaten Daten von Millionen US-amerikanischen Facebook-Nutzern gesammelt.
Facebook erfuhr bereits 2015 von dem Datenleck, informierte seine Nutzer aber nicht.
Das Unternehmen forderte Cambridge Analytica auf, die Daten zu löschen. Dass dies bis heute nicht geschehen ist, zeigt eine Recherche der New York Times und des Observers.
@article{Wischmeyer:2018aa,
title = {Bezahlen im Internet - Willkommen bei der Bank of Amazon},
author = {Nils Wischmeyer},
url = {https://zeitung.sueddeutsche.de/webapp/issue/sz/2018-03-06/page_2.278902/article_1.3892815/article.html},
year = {2018},
date = {2018-03-06},
journal = {Süddeutsche Zeitung},
abstract = {Tech-Firmen werden zur Konkurrenz für klassische Finanzinstitute. Sie locken mit Kreditkarten, schnellen Überweisungen und verwandeln das Smartphone in eine Geldbörse.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
Tech-Firmen werden zur Konkurrenz für klassische Finanzinstitute. Sie locken mit Kreditkarten, schnellen Überweisungen und verwandeln das Smartphone in eine Geldbörse.
@article{Fleming:2018aa,
title = {Ten red flags signaling your analytics program will fail},
author = {Oliver Fleming and Tim Fountaine and Nicolaus Henke and Tamim Saleh},
url = {https://www.mckinsey.com/business-functions/mckinsey-analytics/our-insights/ten-red-flags-signaling-your-analytics-program-will-fail},
year = {2018},
date = {2018-01-01},
journal = {McKinsey&Company},
abstract = {Struggling to become analytics-driven? One or more of these issues is likely what’s holding your organization back.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
@article{Bajorat:2017aa,
title = {Der Kampf um unsere Identitäten},
author = {André M Bajorat},
url = {https://paymentandbanking.com/id-provider-verimi-yes-und-andere-rund-um-die-medienkonzerne/?utm_content=buffer3b7f5&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer},
year = {2017},
date = {2017-09-28},
journal = {Payment and Banking},
abstract = {Ist es ein neuer Trend? Die nächste Sau im Dorf? Oder ist, nach FinTech nun das Thema e-Identitäten an der Reihe? Und wenn ja, warum eigentlich? Der Versuch einer Erklärung.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
Ist es ein neuer Trend? Die nächste Sau im Dorf? Oder ist, nach FinTech nun das Thema e-Identitäten an der Reihe? Und wenn ja, warum eigentlich? Der Versuch einer Erklärung.
@article{Suleyman:2017aa,
title = {Trust, confidence and Verifiable Data Audit},
author = {Mustafa Suleyman and Ben Laurie},
url = {https://deepmind.com/blog/trust-confidence-verifiable-data-audit/},
year = {2017},
date = {2017-03-09},
journal = {Deepmind.com},
abstract = {Data can be a powerful force for social progress, helping our most important institutions to improve how they serve their communities. As cities, hospitals, and transport systems find new ways to understand what people need from them, they’re unearthing opportunities to change how they work today and identifying exciting ideas for the future.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
Data can be a powerful force for social progress, helping our most important institutions to improve how they serve their communities. As cities, hospitals, and transport systems find new ways to understand what people need from them, they’re unearthing opportunities to change how they work today and identifying exciting ideas for the future.
@article{Merkert:2017aa,
title = {Poker-KI DeepStack braucht nur einen PC um Profispieler zu schlagen},
author = {Johannes Merkert},
url = {https://heise.de/-3643813},
year = {2017},
date = {2017-03-03},
journal = {heise.de},
abstract = {Die Poker-KI Libratus bekommt Konkurrenz: DeepStack schlägt ebenfalls professionelle Spieler im no-limit Texas Hold’em. Dank Deep Learning braucht das System keinen Supercomputer. DeepStack reicht ein PC mit Grafikkarte.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
Die Poker-KI Libratus bekommt Konkurrenz: DeepStack schlägt ebenfalls professionelle Spieler im no-limit Texas Hold’em. Dank Deep Learning braucht das System keinen Supercomputer. DeepStack reicht ein PC mit Grafikkarte.
@article{Kannenberg:2017ac,
title = {Facebook testet künstliche Intelligenz zur Suizid-Prävention},
author = {Axel Kannenberg},
url = {https://www.heise.de/newsticker/meldung/Facebook-testet-kuenstliche-Intelligenz-zur-Suizid-Praevention-3641015.html},
year = {2017},
date = {2017-03-01},
journal = {heise.de},
abstract = {Das soziale Netzwerk will sein Programm zur Suizidprävention verbessern. Dazu wird ein neues System getestet, das automatisch Postings gefährdeter Nutzer erkennen soll.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
Das soziale Netzwerk will sein Programm zur Suizidprävention verbessern. Dazu wird ein neues System getestet, das automatisch Postings gefährdeter Nutzer erkennen soll.
@article{Singer:2017aa,
title = {Deutsche Marketer setzen voll auf Data Driven Marketing},
author = {Markus Singer},
url = {https://www.haufe.de/marketing-vertrieb/dialogmarketing/deutsche-marketer-setzen-voll-auf-data-driven-marketing_126_395570.html},
year = {2017},
date = {2017-01-30},
journal = {Acquisa},
abstract = {Data Driven Marketing ist das Gebot der Stunde. Entsprechend steigen die Ausgaben. Wohin das Geld fließt und was noch besser werden muss, lesen Sie hier.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
Data Driven Marketing ist das Gebot der Stunde. Entsprechend steigen die Ausgaben. Wohin das Geld fließt und was noch besser werden muss, lesen Sie hier.
@article{Fromm:2016aa,
title = {Wagen, hol schon mal den Harry},
author = {Thomas Fromm},
url = {https://zeitung.sueddeutsche.de/webapp/issue/sz/2016-11-18/page_2.203701/article_1.3254410/article.html},
year = {2016},
date = {2016-11-18},
journal = {Süddeutsche Zeitung},
pages = {3},
abstract = {100 Jahre lang propagierte die Autoindustrie die "Freude am Fahren". Jetzt sollen die Bordcomputer übernehmen. Die Branche fragt sich: Will der Kunde das wirklich?},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
100 Jahre lang propagierte die Autoindustrie die "Freude am Fahren". Jetzt sollen die Bordcomputer übernehmen. Die Branche fragt sich: Will der Kunde das wirklich?
@article{Rose:2016ab,
title = {Bridging the Trust Gap: Data Misuse and Stewardship by the Numbers},
author = {John Rose and Alexander Lawrence and Elias Baltassis and Frederik Lang},
url = {https://www.bcgperspectives.com/content/Slideshow/big-data-technology-digital-bridging-trust-gap-data-misuse/?linkId=36013358#ad-image-0},
year = {2016},
date = {2016-10-20},
journal = {bcg.perspecitves},
abstract = {Data misues occurs when consumers ar unpleasantly surprised that data about them has been collected or that it has been used in new ways and perceive such practices to be potentially harmful and feel that the company should not engage in them.
Data and Trust Company Survey of the data stewardship practices of 140 companies in eight industries.
The top findings include:
Consumers will stop or significantly reduce spending if they believe that a company has misused data about them or other consumers.
Consumers are primed to view many uses of data as data misuses.
Concerns about data misuse remain at high levels across generations and countries.
Trust unlocks access to data, but few companies know if consumers trust them, and they may not deserve that trust because of weak internal enforcement mechanisms.
The requirements of data stewardship can be grouped into four major areas: internal policies and procedures, data use and collection practices, transparency about current practices, and notifications and permissions for new data uses.
Most companies are being recklessly conservative: they are failing to use data for new purposes that consumers are actually open to.
When they do deem a new use to be acceptable, they don’t often feel compelled either to transparently inform and educate their customers about the collection and use of information about them or to give them the choice to grant permission, even though that is what most consumers want.
Many companies are on a collision course with their customers when they use data in new ways. Unless companies do something to combat the toxic environment of distrust that surrounds data use, consumers will be predisposed to view all new uses of data about them as misuses.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
Data misues occurs when consumers ar unpleasantly surprised that data about them has been collected or that it has been used in new ways and perceive such practices to be potentially harmful and feel that the company should not engage in them.
Data and Trust Company Survey of the data stewardship practices of 140 companies in eight industries.
The top findings include:
Consumers will stop or significantly reduce spending if they believe that a company has misused data about them or other consumers.
Consumers are primed to view many uses of data as data misuses.
Concerns about data misuse remain at high levels across generations and countries.
Trust unlocks access to data, but few companies know if consumers trust them, and they may not deserve that trust because of weak internal enforcement mechanisms.
The requirements of data stewardship can be grouped into four major areas: internal policies and procedures, data use and collection practices, transparency about current practices, and notifications and permissions for new data uses.
Most companies are being recklessly conservative: they are failing to use data for new purposes that consumers are actually open to.
When they do deem a new use to be acceptable, they don’t often feel compelled either to transparently inform and educate their customers about the collection and use of information about them or to give them the choice to grant permission, even though that is what most consumers want.
Many companies are on a collision course with their customers when they use data in new ways. Unless companies do something to combat the toxic environment of distrust that surrounds data use, consumers will be predisposed to view all new uses of data about them as misuses.
@article{Knight:2016ac,
title = {Intelligent Machines - Will AI-Powered Hedge Funds Outsmart the Market?},
author = {Will Knight},
url = {https://www.technologyreview.com/s/600695/will-ai-powered-hedge-funds-outsmart-the-market/},
year = {2016},
date = {2016-02-04},
journal = {MIT Technology Review},
abstract = {Some hedge funds boast that AI algorithms make their trading decisions—but these systems might be more conventional than they seem.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
@article{Dorfer2016,
title = {Datenzentrische Geschäftsmodelle als neuer Geschäftsmodelltypus in der Electronic-Business-Forschung: Konzeptionelle Bezugspunkte, Klassifikation und Geschäftsmodellarchitektur},
author = {Laura Dorfer},
url = {http://dx.doi.org/10.1007/s41471-016-0014-9},
doi = {10.1007/s41471-016-0014-9},
issn = {2366-6153},
year = {2016},
date = {2016-01-01},
journal = {Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung},
volume = {68},
number = {3},
pages = {307--369},
abstract = {Der vorliegende Beitrag beschäftigt sich mit dem emergenten Phänomen der datenzentrischen Geschäftsmodelle: Diese bezeichnen einen Internet-Geschäftsmodelltypus, der die Sammlung, Verarbeitung und Bereitstellung von Daten in Form von Datengütern zum Gegenstand hat. Ziel der Untersuchung ist es, einen konzeptionellen Beitrag zu diesem bisher nur rudimentär erforschten Forschungsfeld zu leisten, um auf diese Weise ein besseres Verstehen und Gestalten dieses Geschäftsmodelltypus zu ermöglichen. Hierfür werden datenzentrische Geschäftsmodelle konzeptionell in die Referenzforschung eingebettet und systematisch mittels einer empirisch gestützten Klassifikation und einer Geschäftsmodellanalyse auf ihre Ausprägungen sowie ihre konstitutiven ökonomischen Merkmale und Strukturen untersucht.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
Der vorliegende Beitrag beschäftigt sich mit dem emergenten Phänomen der datenzentrischen Geschäftsmodelle: Diese bezeichnen einen Internet-Geschäftsmodelltypus, der die Sammlung, Verarbeitung und Bereitstellung von Daten in Form von Datengütern zum Gegenstand hat. Ziel der Untersuchung ist es, einen konzeptionellen Beitrag zu diesem bisher nur rudimentär erforschten Forschungsfeld zu leisten, um auf diese Weise ein besseres Verstehen und Gestalten dieses Geschäftsmodelltypus zu ermöglichen. Hierfür werden datenzentrische Geschäftsmodelle konzeptionell in die Referenzforschung eingebettet und systematisch mittels einer empirisch gestützten Klassifikation und einer Geschäftsmodellanalyse auf ihre Ausprägungen sowie ihre konstitutiven ökonomischen Merkmale und Strukturen untersucht.
@article{Paetz2016,
title = {Persönlichkeitsmerkmale als Segmentierungsvariablen: Eine empirische Studie},
author = {Friederike Paetz},
url = {http://dx.doi.org/10.1007/s41471-016-0015-8},
doi = {10.1007/s41471-016-0015-8},
issn = {2366-6153},
year = {2016},
date = {2016-01-01},
journal = {Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung},
volume = {68},
number = {3},
pages = {279--306},
abstract = {Klassischen Segmentierungsvariablen wie Demografie oder Psychografie wird häufig die Fähigkeit Präferenzheterogenität widerzuspiegeln abgesprochen. Daher werden zunehmend Conjoint-basierte Segmentierungsverfahren eingesetzt, die Personen präferenzbasiert klassifizieren. Im Rahmen der psychografischen Segmentierung wurden mit Wertevorstellungen und Lifestyle bisher jedoch nur zwei Variablentypen tiefergehend untersucht. Persönlichkeitsmerkmale wurden hingegen kaum betrachtet. Dieser Beitrag zeigt anhand einer empirischen Studie, dass Persönlichkeitsmerkmale, die über das Five-Factor Modell operationalisiert werden, sehr wohl ein diskriminatorisches Potential aufweisen. Dies differenziert die pauschale Aussage der Nicht-Eignung psychografischer Variablen zur Segmentierung.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
Klassischen Segmentierungsvariablen wie Demografie oder Psychografie wird häufig die Fähigkeit Präferenzheterogenität widerzuspiegeln abgesprochen. Daher werden zunehmend Conjoint-basierte Segmentierungsverfahren eingesetzt, die Personen präferenzbasiert klassifizieren. Im Rahmen der psychografischen Segmentierung wurden mit Wertevorstellungen und Lifestyle bisher jedoch nur zwei Variablentypen tiefergehend untersucht. Persönlichkeitsmerkmale wurden hingegen kaum betrachtet. Dieser Beitrag zeigt anhand einer empirischen Studie, dass Persönlichkeitsmerkmale, die über das Five-Factor Modell operationalisiert werden, sehr wohl ein diskriminatorisches Potential aufweisen. Dies differenziert die pauschale Aussage der Nicht-Eignung psychografischer Variablen zur Segmentierung.
@book{James:2015aa,
title = {An Introduction to Statistical Learning with Applications in R},
author = {Gareth James and Daniela Witten and Trevor Hastie and Robert Tibshirani},
editor = {G. Casella and S. Fienberg and I. Olkin},
url = {http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf},
isbn = {978-1-4614-7137-0},
year = {2015},
date = {2015-01-01},
publisher = {Springer US},
address = {New York, Heldelberg, Dordrecht, London},
edition = {6},
series = {Springer Texts in Statistics},
keywords = {},
pubstate = {published},
tppubtype = {book}
}
@article{Markham:2014aa,
title = {In-depth introduction to machine learning in 15 hours of expert videos},
author = {Kevin Markham},
url = {https://www.r-bloggers.com/in-depth-introduction-to-machine-learning-in-15-hours-of-expert-videos/},
year = {2014},
date = {2014-09-23},
journal = {R-bloggers},
abstract = {In January 2014, Stanford University professors Trevor Hastie and Rob Tibshirani (authors of the legendary Elements of Statistical Learning textbook) taught an online course based on their newest textbook, An Introduction to Statistical Learning with Applications in R (ISLR). I found it to be an excellent course in statistical learning (also known as “machine learning”), largely due to the high quality of both the textbook and the video lectures. And as an R user, it was extremely helpful that they included R code to demonstrate most of the techniques described in the book.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
In January 2014, Stanford University professors Trevor Hastie and Rob Tibshirani (authors of the legendary Elements of Statistical Learning textbook) taught an online course based on their newest textbook, An Introduction to Statistical Learning with Applications in R (ISLR). I found it to be an excellent course in statistical learning (also known as “machine learning”), largely due to the high quality of both the textbook and the video lectures. And as an R user, it was extremely helpful that they included R code to demonstrate most of the techniques described in the book.
cloudero.de verwendet Cookies, um Inhalte individuell darzustellen und die Reichweite zu messen. Es werden Elemente von Drittanbietern eingebunden. VerstandenDatenschutzhinweiseNicht einverstanden
Cookies und Datenschutzhinweise
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.