An Tag 3 von meinem Sabbatical durfte ich nun zum ersten Mal auf den Ignite Talks von 12min.me in Hamburg sprechen. Oliver Rößling hatte mich gefragt, ob ich nicht mal Lust hätte zu sprechen. Sehr cooles Format. 12min Pitch, dann Diskussion.

Fühlte sich schon ein wenig komisch an, dass erste Mal als nicht „offizieller“ Microsoftie nach über 5 Jahren vor Publikum zu sprechen. Aber da kann ich mich – glaube ich zumindest – gut dran gewöhnen. Das Slidedeck könnt ihr am Ende des Blogposts runterladen. Und ja da ist noch eine ganze Menge Content von MSFT drin. Nicht weil ich nichts anderes gefunden habe, sondern weil er einfach gut ist 🙂

AI (=KI=Artificial Intelligence=Künstliche Intelligenz), Ethik und die Auswirkungen auf die Gesellschaft sind schon seit einiger Zeit mein persönliches Steckenpferd. Ich glaube, dass wir uns aktuell in einer Welt bewegen, die sich rasend schnell ändert. Ich selber durfte die ganze Startzeit des Internets live und in Farbe und sehr direkt miterleben. Egal ob als Studi oder Unternehmer. Ich war von Anfang an mit dabei. Und es war damals schon enorm schnell wie sich die Geschäftsmodelle geändert haben oder auch die Themen. Ich denke, dass sich viele von Euch noch an Boris Beckers Werbung für AOL erinnern können „Bin ich schon drin ?!?“. Ja das war damals wirklich nicht selbstverständlich. Aber egal. Wir wollen jetzt ja über AI, Ethik und Kühe sprechen.

Heute sollte jede Company eine Datadriven – Daten gestützte – Company sein. Egal ob sie nun Autos produziert, Zeitungen macht, Lebensmittel verkauft oder irgendeine Dienstleistungen. 

Denn Daten sind das neue Gold, Öl und Erdgas !

Wichtig hierbei ist der Unterschied zwischen Big Data und Smart Data. Big Data beschreibt in der Regel ein Sammelgrab von vielen strukturierten und unstrukturierten Daten, die erhoben und gesammelt werden ohne das die Firma weiß, was sie damit anfangen soll. „Man könnte die Daten ja später einmal gebrauchen“. Würdet ihr so mit Eurem Gold umgehen ? Und ist es ethisch vertretbar wirklich alle Daten zu sammeln (und irgendwann einmal auszuwerten) ? Hmmmmm. Ich glaube das könnte zu ein paar Diskussionen führen.

Wenn wir uns mal die gesamte Big/Smart Data, AI, Infrastruktur Cloud Landkarte ansehen erkennt man, dass das Thema nunja – recht umfangreich ist :

Wie können wir dem ganzen Herr werden ?

Tja dafür gibt es dann AI und ML und die „neuen Götter in weiß“ die Data Scientists. Das sind genau die Kollegen, die uns genau sagen können was wir schon immer wissen wollten aber nie fragen konnten da wir nicht wußten was wir wissen wollen. Sprich die Data Scientists sind in der Lage den Big Data‘s dieser Welt Herr zu werden und nutzen dafür Machine Learning (ML) und künstliche Intelligenz. Aber wo kommen diese Daten eigentlich alle her ?

In 2014 hat Cisco eine Studie bei IDC in Auftrag gegeben um zu analysieren, wie viel Datenkollektoren es in naher Zukunft (bis 2018) geben wird um darauf ihr Infrastruktur basierendes Geschäftsmodell auszubauen. IDC hat vorhergesagt, dass in 2018 – sprich in ein paar Monaten – weltweit ca. 20Mrd Datenkollektoren installiert sein werden (und diese dann an Cisco Infrastruktur angeschlossen sind). Aber das ist nicht alles. Jegliche Bewegungen im Internet werden inzwischen Protokolliert. Die Amazon‘s, Zalandos, Netflixe und Google‘s dieser Welt wissen inzwischen besser was ihr in Zukunft kaufen wollt und kaufen werdet als ihr.

Leider ist die Werbung im Internet – Ad rotation etc – noch nicht wirklich darauf ausgerichtet. Ihr bekommt leider immer noch die Artikel angezeigt, die ihr gerade bestellt habt oder die die ihr sicherlich nicht wollt. Es geht inzwischen auch schon anders nur leider sind wir mit Ingenious Technologies (ich bin da im AR) noch nicht so weit verbreitet. Dafür können wir euch sogar über Devices tracken und ihr müsst noch nicht einmal durchgehend angemeldet sein. Scary ? Ja. Ethics ? Hmmm…

Aber schauen wir nochmal was denn Machine Learning (ML) überhaupt ist :

„The goal of machine learning is

to program computers

to use example data or past experience

to solve a given problem.“

(Introduction to Machine Learning, Second Edition, MIT Press)

Also das Ziel ist es Computer so zu programmieren, dass sie mit Beispieldaten oder auf Basis von historischen Daten (=Erfahrung) ein aktuelles Problem lösen sollen. 

Hmm…

ML ist die (Daten-)Basis für AI. Was bedeutet das denn wenn man das übersetzt ?

Die künstliche Intelligenz ist also nur so schlau wie die Datenbasis mit der man sie gefüttert hat.

Wozu das führen kann sieht man an Tay. Das ist der Chatbot, den Microsoft am 23. März 2016 auf die Europäischen und Amerikanischen Twitter User – nach sehr erfolgreichem Test in Asien – losgelassen hat und der nach 16h Notabgeschaltet werden mußte, weil er sexistische und rassistische Tweets losgelassen hat. Tay ist so „berühmt“ geworden, dass er sogar eine eigene Wikipedia Seite (https://en.wikipedia.org/wiki/Tay_(bot)) und eigenes Hashtag #FreeTay bekommen hat.

Ethik ? Fehlanzeige. Ein ähnliches Problem hatte übrigens auch IBMs Watson, nachdem er das „Urban Directory“ „gelesen“ hat.

Bullshit rein – Bullshit raus. Alte Informatiker Weisheit.

Wenn wir uns das ganze etwas pragmatischer ansehen, dann sieht das ungefähr so aus :

Ein gutes und anschauliches Beispiel hierfür ist die Recommender Engine von Netflix. Ihr habt Euch doch sicher schon mal gewundert, warum die Vorschläge von Netflix eigentlich echt gut sind, oder ?

Zuerst versucht der Recommender zu verstehen, was passiert ist. Also welche Filme und Serien habe ich mir angesehen, welche habe ich abgebrochen und welche gegebenenfalls sogar geliked. 

Als nächstes versucht der Recommender dann herauszufinden, warum ihr diese Aktionen bei den Filmen und Serien durchgeführt habt. Also warum habt ihr „Orange is the new Black“ abgebrochen und warum habt ihr „Designated Survivor“ angesehen und vielleicht sogar mehr als einmal.

Als nächstes versucht der Recommender vorauszusehen (sprich zu lernen) was Du wohl als nächstes tun wirst. Schaust Du Dir tatsächlich neben „Designatd Survivor“ auch noch „House of Cards“ an – was recht nahe liegt. In dieser Phase zeigt der Recommender seine vermutungen noch nicht den Usern. Das bleibt komplett im System verborgen und Netflix versucht zu lernen.

Der letzte Schritt – und alle Schritte basieren auf Wahrscheinlichkeiten – ist der, dass Dir der Recommender – wenn er denn genügend Daten gesammelt hat, also die Wahrscheinlichkeit einen gewissen Threshold überschritten hat – Vorschläge zu machen, um für Dich das Netflix Erlebnis so gut zu machen wie nur irgend möglich. Und Du wirst feststellen, dass die Vorschläge aus dem Recommender – oder Recommendation Engine – so gut sind, dass sie in aller Regel tatsächlich Deinen Geschmack trifft. Mir hat er z.B. nach „House of Cards“ und „Designated Survivor“ „White Collar“ angeboten – und was soll ich sagen – ich bin gerade am Ende der 2. Staffel 🙂

Wie schaut denn nun die ganze Technologie hinter AI, Smart Data und ML aus ?

Wie sollte es anders sein – ohne Cloud geht hier gar nichts. Für die Datenmengen, die gesammelt und ausgewertet werden braucht es einfach riesige Kapazitäten die sinnvoller weise nicht mehr im eigenen Rechenzentrum vorgehalten werden – auch wenn es sich hierbei um kritische oder personenbezogene Daten handelt – sondern zentral von einem der 3 relevanten Anbietern – Google, Amazon oder Microsoft – oder deren Partnern bezogenen. Warum auch bei personenbezogenen Daten ? Die Rechenzentren der 3 Anbieter sind zum Teil schon in Deutschland oder zumindest in der EU und somit unterliegen die Anbieter dem GDPDR oder auf Deutsch der „Datenschutzgrundverordnung“ (DSGVO). Somit kann zumindest mal kein Schindluder betrieben werden. Ob man nun noch das Upgrade mit der nationalen Cloud wie sie von Microsoft angeboten wird tatsächlich benötigt muß der Anwender für sich selbst entscheiden. Für nahezu alle Anwendungsszenarien sollte die „Europäische“ Cloud mehr als ausreichend sein.

Auf den einzelnen Cloud Systemen gibt es nun eine Vielzahl von unterschiedlichen Services. Viele sind ähnlich, keine sind gleich. Selbst grundlegende Dinge wie Docker oder Kubernetes oder ein mySQL Service sind bei Google anders wie bei AWS wie bei Azure. Sprich selbst wenn man auf einen Open Source „Standard“ setzt kann man seine Cloud Anwendungssysteme später nicht einfach von GCP zu Azure zu AWS migrieren. Damit macht es die Auswahl am Anfang echt schwierig. Meine Empfehlung wäre hier einen Multicloud Service Partner (oder auch Managed Service Partner – MSP) als Mittler zwischen den Systemen zu nutzen.

Die Basis Services für Smart Data und ML sind Spark, Hadoop und „R“ als Abfragesprache. Gibt es theoretisch auf allen 3 Clouds nur persönlich denke ich, dass Microsoft mit Azure dank der Akquise von „Revolution Analytics“ – dem professionellen Hersteller von „R“ in 2015 leicht die Nase vorn. Auch das Azure ML Studio sucht seines gleichen auf den anderen beiden Plattformen.

Damit wären wir dann auch schon in der Anwendungsschicht. Auf der einen Seite sollen die Apps die Benutzung der Infrasturktur und Services so einfach wie möglich machen und auf der anderen Seite sollen die ML und Smart Data Funktionen in möglichst vielen Endkunden Apps Einzug halten um – genau Du hast es erkannt – möglichst viele Daten en passent beim Benutzen der Apps gesammelt werden. Auch hier nutzt Microsoft seine starke Position im Geschäftskundenumfeld. Die AI und ML Plattform hat in nahezu alle Business Apps – sei es Dynamics 365, CRM Online oder auch nur Microsoft Office – integriert und macht so die Apps smarter. 

Leider – und damit kommen wir zu den intelligenten Assistenten – hat Microsoft den Consumer Markt verschlafen und vielleicht sogar aufgegeben. Bing hat in Europa keinerlei Relevanz – trotz großer Deals mit Apple und anderen – einen Smart Speaker sucht man vergeblich – ob und wann der harmanKardon „Invoke“ nach Europa oder Deutschland kommt steht in den Sternen – und eine mobile Plattform ist nicht (mehr) vorhanden. Google mit seinem Home System ist aus meiner Sicht viel zu spät an den Markt gekommen und glänzt – wie eigentlich immer – mit einer Datengier die seines Gleichen sucht : Google Home mini sendet einfach dauerhaft Informationen ins Google HQ. Natürlich entschuldigt man sich für den Hardware Defekt den man auch so gleich mit einem Software Patch gefixt hat (Diesel Schummelei….). Wer’s glaubt wird selig (Quelle : http://winfuture.de/news,100042.html ).

Was läuft auf den Lautsprechner : Genau Voice gesteuerte Bots. Also Apps. In 2016 konnte ich recht viel Aufsehen erregen mit einem Talk während der „Explained Konferenz“ wo ich sagte „Bots sind die neuen Apps“. Aufgegriffen wurde dies zuerst bei der dpa und über heise online und Focus ist der Ausspruch dann in der „Powerrotation“ für ein paar Tage an den Abflug Gates an den Flughäfen gelandet (https://www.heise.de/newsticker/meldung/Microsoft-Techniker-Bots-sind-die-neuen-Apps-3334108.html). Sind Bots also wirklich die neuen Apps ? Ich glaube nicht und muß mich da ein wenig korrigieren. Aktuell ist es leider so, dass die unterschiedlichen Canvases – also die Messenger / Websites etc in denen die Bots laufen – alle unterschiedliche Funktionen und Darstellungsmethoden haben. Ich fühle mich hier stark erinnert an die „Browser Wars“ Ende der 90er Jahre wo man endlos lange Browserweichen programmieren mußte um zu erkennen, welche Features nun unterstützt werden und welche nicht. Zudem ist die Entwicklung der Bots in den letzten Monaten nicht wirklich voran gekommen. Intelligent ist anders. Aktuell sind die meisten Bots eher so konstruiert, dass sie einer Baumstruktur oder für Informatiker – sehr langen If … then … else Schleifen folgen und möchte man etwas korrigieren in der 6. Abbiegung fängt man wieder von vorne an. Wirklich lernen tun sie nichts die Bots und intelligent ist anders. Aber ja viele Callcenter Funktionen kann man auch mit „If … then … else“ automatisieren. 

Von daher glaube ich, dass auch die Bots einer starken Überarbeitung bedürfen – ähnlich wie das Web in 1998. Mein Bot vNext sieht so aus, dass Bots gebündelt mit Voice User Interfaces, ML und Smart Data das Maß der Dinge sein werden. Und ich denke, dass hier sehr schnell ein 2-3 Kampf der System zwischen Facebook, Google und Microsoft starten wird. AWS/Amazon macht zwar ein Top VUI allerdings fehlen hier aus meiner Sicht die wirklichen Visionären Ideen und Ansatzpunkte, wie man vNext Bots tatsächlich auch außerhalb von eCommerce nutzen kann. Im Wired Backchannel ist im Juni ein Top Artikel zum Thema AI erschienen, der ein wenig stärker beleuchtet, was Microsoft so vor hat (https://www.wired.com/story/inside-microsofts-ai-comeback). Der Artikel ist sehr lesenswert. 

All in all leben wir in einer spannenden Zeit: Fast jeder Aspekt unseres Lebens wird durch Technologie verändert – und das in atemberaubendem Tempo.

Ich glaube, dass wir heute erst am Beginn einer neuen technologischen Revolution stehen. Sie verspricht uns einen Wandel der Art, wie wir leben, arbeiten, kommunizieren und lernen. Und das in einem Tempo und Umfang, wie das die Menschheit noch nie zuvor erlebt hat. Eine neue Generation technologischer Innovationen verschafft uns Möglichkeiten, die neue Wege zur Erschließung wirtschaftlicher Chancen und die Lösung von einigen der brennendsten Fragen der Menschheit versprechen.

Laut einer kürzlich vom Weltwirtschaftsforum  veröffentlichten Studie sind mehr als 75 Prozent der Führungskräfte im IT­ und  Kommunikationssektor der Meinung, dass wir innerhalb von 10 Jahren Roboter­apotheken, mit 3D­Druck hergestellte Autos und im 3D­Druck hergestellte  Lebertransplantate erleben werden, dass 10 Prozent aller Autos fahrerlos auf den  Straßen unterwegs sein werden und dass 10 Prozent aller Personen per Internet vernetzte Kleidung tragen werden.

Ich glaube, dass sich die Führungskräfte im IT und Kommunikationssektor täuschen. Schwerwiegend.

Ich glaube NICHT, dass diese Entwicklung noch 10 Jahre braucht und das dann nur z.B. 10% aller Autos autonom fahren. Ich glaube die neu gewählte Bundesregierung muß sich in der anstehenden Legislaturperiode damit beschäftigen, wie sie die Auswirkungen auf Wirtschaft, Arbeitswelt und Leben aktiv dafür nutzt Deutschland noch stärker zu machen.

Insbesondere die Arbeitswelt steht vor Signifikanten Änderungen. Viele der heutigen Standard Jobs wird es in 3-5 Jahren nicht mehr in dem Umfang wie heute geben und in 10 Jahren verschwunden sein.

Betroffen sind von der vierten Industriellen Revolution nun auch solche Berufsgruppen, in denen sich bisher viele Mitarbeiter als Wissensarbeiter auf der »sicheren Seite« wähnten. Genau diese Berufsgruppen stehen im Fokus: Vom Sachbearbeiter in der Versicherung bis hin zum Wirtschaftsprüfer. Die im Change Prozess von Kotter[1] beschriebenen Phasen von Realitätsverweigerung[2], Widerstand[3] bis zur Adaption und positiven Gestaltung sind zu erwarten. Man kann allerdings auch positive Effekte wahrnehmen. Wenn Tätigkeiten, die keinen unmittelbaren Nutzen für Menschen stiften, sondern den Transaktionskosten zuzurechnen sind weitestgehend technisiert werden, dann muss man dies nicht bedauern und sollte im Gegenteil versuchen diesen Prozess zu beschleunigen.

Die Vorteile dieser Veränderungen könnten gewaltig sein. Jetzt wird eine nicht allzu ferne Zukunft vorstellbar, in der es keine Armut mehr gibt, in der Krankheiten ausgelöscht sind, die die Menschheit seit Jahrtausenden quälten, in der ein Lösung für den Klimawandel gefunden wurde und in der neue Formen der Kommunikation und Zusammenarbeit zu einem epochalen Anstieg von Innovation und Kreativität führen.

Doch wir können uns beim Blick auf dieselbe technologische Revolution auch  fragen: Gehen wir nicht eher einer düsteren Zukunft entgegen, in der Roboter und Automatisierung Millionen von Arbeitsplätzen vernichten, in der Einkommensunterschiede zu einer unüberbrückbaren Kluft führen, in der die öffentliche  Sicherheit permanenten Bedrohungen ausgesetzt ist und in der unsere Privatsphäre durch aggressive Überwachung und unkontrolliertes Sammeln von persönlichen Daten untergraben wird?

Aus einer Studie der Chapman University geht hervor, dass die Technologie unter den Themen, die den Menschen die größten Sorgen bereiten, nur zweit­rangig ist. Dagegen gehören Cyberterrorismus, die Angst vor dem Sammeln von privaten Daten durch Unternehmen und Regierungen und der Identitätsdiebstahl zu den zehn am häufigsten genannten Themen. Die Umfrage belegt auch, dass fast jeder dritte Befragte befürchtet, seinen Arbeitsplatz an einen Roboter zu verlieren, und jeder Vierte bezweifelt, dass man künstlicher Intelligenz vertrauen kann. Diese weit verbreitete unterschwellige Angst ist durchaus nachvollziehbar.

Und genau daher ist es so wichtig, Ethische Grundsätze verbindlich zu vereinbaren für die Nutzung dieser neuen Technologien und Methoden.

Aus meiner Sicht hat Microsoft mit seinem CEO Satya Nadella hier einen sehr guten Vorschlag erarbeitet, den ich hier gerne teilen möchte :

Sechs ethische Grundsätze

  1. A.I. muss zur Unterstützung der Menschheit designt werden
  2. A.I. muss transparent sein
  3. A.I. muss Effizienz maximieren ohne die Würde des Menschen zu verletzen
  4. A.I. muss für intelligenten Datenschutz konzipiert werden
  5. A.I. muss algorithmische Verantwortbarkeit besitzen,
    so dass unbeabsichtigter Schaden korrigiert werden kann
  6. A.I. muss Unvoreingenommenheit und repräsentative Forschung sicherstellen, so dass falsche Heuristiken nicht zu Diskriminierung genutzt werden können

(Satya Nadella/Microsoft – 6 ethische Grundsätze für AI)

Und wie war das mit den Kühen jetzt ?

Ja ich weiß schon harter Schnitt von 6 ethischen Grundsätzen zu Kühen aber hat unser Fleischkonsum nicht auch irgendwie etwas mit Ethik zu tun ? Ich glaube, dass Fleisch heutzutage einfach viel zu billig ist. Wenn REWE mit Schweinefilet (ok keine Kühe…) für 6,90€/kg wirbt ist etwas falsch und hier werden Tiere geschlachtet die eigentlich noch verdient hätten zu leben. Nicht falsch verstehen : Ich bin bekennender Fleischesser – am liebsten Kühe – aber das geht zu weit und es kann einfach nicht richtig sein.

Aber kommen wir zum Thema : In 2013 gab es ein IoT Projekt in Japan mit dessen Hilfe Japanische Farmer es geschafft haben, die Wunsch Kuh – oder besser Wunschkalb – zu züchten. Nicht von der DNA her aber vom Geschlecht. In der industriellen Kuh Produktion ist das weibliche Kalb interessanter als das männliche von daher versucht jeder Betrieb möglichst viele weibliche Kälber zu züchten. Ja selbst bei Wagyu. Man hat nun auf Basis von vielen Daten (Big Data) und ML festgestellt, dass eine weibliche Kuh 16h vor dem optimalen Zeitpunkt für die Befruchtung durch eine männliche Kuh sich extrem viel bewegt und sehr aktiv ist. Zudem hat man herausgefunden, dass die Wahrscheinlichkeit für ein weibliches Kalb im Zeitpunkt bis zu 2h vor dem optimalen Zeitpunkt extrem hoch ist und bei bis zu 2h nach dem Zeitpunkt ein männliches Kalb gezeugt wird. Üblicherweise liegt diese Start Zeit immer zwischen 22.00Uhr abends und 8.00Uhr morgens. Um genau diesen Zeitpunkt zu treffen müsste der Bauer nun entweder die ganzen Nächte wach sein oder man versieht die Kühe mit einer Smartwatch die diese Bewegungen protokolliert und dem Bauern am nächsten Morgen den optimalen Zeitpunkt für die Befruchtung durch einen Bullen mitteilt und der Bauer hat eine nahezu 100%ige Wahrscheinlichkeit für ein weibliches oder männliches Kalb.

Und ob das nun der optimale Einsatz von AI und ML ist und ob diese Zeugungsmethode nun ethisch vertretbar ist können wir nun hier gerne diskutieren 🙂

_________________________________________________________________________________

Herzlichen Dank auch an meine ehemalige Mitarbeiterin Olivia Klose, die eine der besten Evangelisten und Datascientists ist, die ich kenne. Sie gab mir die Inspiration für den Kuhtalk. Olivia ist unter @OliviaKlose auf Twitter zu erreichen !

[1] Vgl. John P. Kotter „Leading Change“ erschienen bei Vahlen
[2] »wird schon nicht so schlimm sein«
[3] »das muss man politisch verhindern«

Die Folien zum Ignite Talk könnt ihr hier runter laden : Ignite 45 – AI Ethik und Kühe