Digitalisierungs Blog

4 min Lesezeit

Beispiele für Machine Learning im Alltag

20. September 2017

Machine Learning Beispiele

 

 

 

 

 

 

 

 

Die kontinuierliche Weiterentwicklung der Digitalisierung und Vernetzung unserer Systeme führt zu stetig neuen Errungenschaften und Trendthemen: Big Data oder Business Intelligence sind schon länger beliebte Schlagworte im Bereich Digitalisierung. 

Mit dem nicht aufzuhaltenden Fortschritt gelangen auch Forschungsbereiche in den Fokus von Öffentlichkeit und Unternehmen, die bis vor ein paar Jahren oder Jahrzehnten hauptsächlich in Blockbustern oder Romanen thematisiert wurden. So auch das Gebiet des Machine Learning unter dem Deckmantel der künstlichen Intelligenz. Bei künstlicher Intelligenz denken viele sofort an Filme wie „Terminator“ und zucken bei dem Gedanken zusammen, dass Maschinen uns eines Tages unterwerfen könnten. Aber was genau ist unter Machine Learning in der Praxis zu verstehen?

Machine Learning einfach erklärt

Machine Learning ist ein Zweig der Informatik, der sich damit befasst, Computern die Fähigkeit zu verleihen, selbstständig zu lernen. Als Weiterentwicklung der Mustererkennung und Computerlerntheroie im Bereich der künstlichen Intelligenz befasst sich Machine Learning mit komplexen Algorithmen, die von Daten lernen und Vorhersagen über sie treffen können. Solche Algorithmen folgen nicht einfach nur streng definierten Programmvorgaben, sondern treffen datengestützte Vorhersagen oder Entscheidungen, indem sie auf Basis von Beispielen Wissen generieren, d. h. lernen. In Abhängigkeit von der Art des Lernsignals oder Feedbacks für das lernende System kann man maschinelles Lernen in drei Kategorien einordnen:

  1. überwachtes Lernen
  2. unüberwachtes Lernen und
  3.  bestärkendes Lernen.

Wie Machine Learning schon heute unseren Alltag bestimmt

Auch wenn es Ihnen vielleicht nicht bewusst ist, sind viele Machine Learning-Anwendungen bereits heute fest in unserem Alltag verankert: Googles selbstfahrendes Auto, Produktempfehlungen bei Amazon oder Filmempfehlungen bei Netflix und die Aufdeckung von Kreditkartenbetrug sind alles Machine Learning-Anwendungen, die bereits heute erfolgreich genutzt werden.

Wenn beispielsweise durch Machine Learning ein Betrugsversuch in der Sekunde aufgedeckt wird, die benötigt wird, um eine Kreditkarte durch ein Lesegerät zu ziehen, berücksichtigt das System nicht nur Informationen in Bezug auf den Kaufvorgang (Betrag, Ort, etc.), sondern nutzt auch historische Daten und Netzwerkdaten für eine genaue Beurteilung des potentiellen Kreditkartenbetrugs. Das bedeutet, dass es möglich ist, im großen Rahmen schnell und automatisch Modelle zu erstellen, die große, komplexe Datenmengen analysieren und schneller genauere Ergebnisse liefern können. Im Ergebnis führt das zu äußerst wertvollen Vorhersagen, die ohne menschliche Beteiligung in Echtzeit zu besseren Entscheidungen und Reaktionen führen.

Ein weiteres Beispiel dürfte vielen im eigenen Wohnzimmer begegnen: Die persönlichen Empfehlungen von Netflix basieren auf Machine Learning. Grundlage hierfür sind vier Faktoren: was bisher angesehen wurde, wie oft ein Film bzw. Serie gesehen wurde, wie schnell eine Serie gesehen wurde und ob und wann Pausen beim Ansehen eines Films bzw. einer Serie eingelegt wurden. Bereits heute wählen 75 % der Nutzer ihren nächsten Film bzw. Serie basierend auf den Empfehlungen von Netflix aus.

Chancen und Risiken von Machine Learning

Das Forschungsfeld der künstlichen Intelligenz und im speziellen Machine Learning eröffnet für viele Branchen und Unternehmen vielfältige neue Möglichkeiten des technologischen Fortschritts. Computer werden immer besser darin, die Welt um sie herum wahrzunehmen, zu verstehen und mit ihr in Kontakt zu treten. Und mit dem exponentiellen Wachstum der von uns produzierten Datenflut wächst auch die Fähigkeit unserer Computer, diese Daten zu verarbeiten, zu analysieren und letztlich von ihnen zu lernen.

Mit der unvorhersehbar schnellen Weiterentwicklung des Machine Learning und der künstlichen Intelligenz werden aber auch zunehmend kritische Stimmen aus hochrangigen Expertenreihen laut, die vor den Risiken eines unkontrollierten Fortschritts warnen. Führende Wissenschaftler (u. a. Stephen Hawking) äußern sich kritisch zur Weiterentwicklung von Machine Learning und künstlicher Intelligenz. Große Chancen bergen meist auch Risiken, die nicht unbedingt absehbar sind. Das bedeutet nicht, dass wir einfach schicksalsergeben auf den Tag warten sollen, an dem die Maschinen uns unterwerfen. Wir sollten genau das tun, was Hawking und seine Kollegen fordern: nämlich alles Menschenmögliche, um von den Vorteilen der Technologie zu profitieren und ihre Risiken zu minimieren.

Wohin geht der Trend?

Experten heben hauptsächlich drei Punkte hervor, wie maschinelles Lernen unsere Welt verändern wird:

  1. Im medizinischen Bereich birgt die Technologie große Chancen in der Krebsdiagnostik. Schon heute übertreffen die Ergebnisse von Computern in der Analyse von Pathologieberichten die Ergebnisse führender Pathologen.
  2. Ein weiterer Bereich betrifft die Verarbeitung natürlicher Sprache. Da große Teile der momentan entstehenden Daten unstrukturiert sind, gewinnt die Verarbeitung natürlicher Sprache für Computer immer mehr an Bedeutung. Hier stellt nicht das Erkennen einzelner Worte das Problem dar, sondern der Kontext, denn erst Kontext eliminiert Ambivalenz.
  3. Abschließend gilt die Objekterkennung durch Computer als einer der schwierigsten und wichtigsten Bereiche für die nahe Zukunft. In einer neuen Studie wurden tausende Bilder und Sätze in einen Algorithmus eingegeben, und ein Computer konnte jedem Bild den richtigen beschreibenden Satz zuweisen. Computer können nun also nicht nur Bilder verstehen und Text lesen, sondern sogar beides zusammenführen.

Das Ausmaß der zukünftigen Anwendungsgebiete für Machine Learning ist unvorstellbar groß und wird sicher in den nächsten Jahren verstärkt viele Gesellschafts- und Wirtschaftsbereiche erobern. Besonders interessant wird auch die Implementierung von Machine Learning und anderen KI-Ansätzen in global kritischen Bereichen wie Landwirtschaft, intelligente Städte oder Klimawandel, in denen sich Cognitive-Computing-Systeme in der Zukunft extrem bewähren werden.

Mehr Informationen über Machine Learning und die Zusammehänge mit Business Intelligence, Big Data und Internet of Things erhalten Sie im gratis Whitepaper "Standortbestimmung – Intelligente Daten". Laden Sie es sich jetzt unverbindlich herunter!

Download

Themen: Data InSight

Matthias Pirzer
Autor Matthias Pirzer

Matthias Pirzer ist als Senior Consultant Digital Transformation bei der NXTGN tätig. Die NXTGN unterstützt Unternehmen dabei prozess- und softwareseitige Herausforderungen der Digitalen Transformation zu meistern. Matthias Pirzer hat in den letzten 10 Jahren eine Vielzahl von BI- und CRM-Lösungen konzipiert sowie Prozesse von verschiedenen Unternehmensbereichen harmonisiert und optimiert. Sein Fokus bei der NXTGN liegt im Bereich DataInsight, d.h. wie können vorhandene Daten zukunftsgerichtet genutzt werden.