Von Techopedia Staff, 22. September 2016
Imbiss: Gastgeberin Rebecca Jozwiak diskutiert Edge Analytics mit Dr. Robin Bloor, Dez Blanchfield und Shawn Rogers von Dell Statistica.
Du bist derzeit nicht angemeldet. Bitte melde dich an oder registriere dich, um das Video zu sehen.
Rebecca Jozwiak: Sehr geehrte Damen und Herren, hallo und willkommen bei Hot Technologies of 2016. Heute haben wir „Edge Analytics: Endlich die IoT-Wirtschaft“. Mein Name ist Rebecca Jozwiak. Ich werde Ihr Moderator für den heutigen Webcast sein. Wir twittern mit einem Hashtag von # HOTTECH16, wenn Sie an der Twitter-Konversation teilnehmen möchten.
Das IoT, definitiv ein heißes Thema in diesem Jahr und das Internet der Dinge, handelt wirklich von Maschinendaten, Sensordaten, Protokolldaten und Gerätedaten. Nichts davon ist neu, wir hatten diese Art von Daten schon immer, aber es ist so, dass wir sie nicht wirklich nutzen konnten und jetzt sehen wir nur eine Menge neuer Möglichkeiten, diese Daten zu nutzen. Gerade in der Medizinbranche, den Finanzmärkten mit Öl und Gas als Rohstoffen, gibt es nur eine Fülle von Informationen, die bisher noch nicht erschlossen wurden. Und nicht viele Leute haben wirklich verstanden, wie man das gut macht. Wir sprechen über eine Menge kleiner Daten, aber es handelt sich um eine Menge Daten, und Sie wissen, dass Netzwerkprobleme vorliegen, dass Hardware vorhanden ist oder dass eine Verarbeitung erforderlich ist. Wie können Sie dies tun, ohne Ihr System zu verstopfen? Das werden wir heute lernen.
Hier sind unsere Experten. Wir haben Dr. Robin Bloor, unseren Chefanalysten bei The Bloor Group. Wir haben auch Dez Blanchfield, unseren Datenwissenschaftler bei The Bloor Group. Und wir freuen uns, Shawn Rogers, Direktor für globales Marketing und Kanäle von Dell Statistica, zu haben. Und damit gebe ich den Ball an Robin weiter.
Dr. Robin Bloor: Okay, danke dafür. Ich werde einen Knopf drücken und eine Rutsche hochwerfen. Ich habe keine Ahnung, warum ich dieses apokalyptische Bild für das Internet der Dinge geschaffen habe. Möglicherweise, weil ich denke, dass es am Ende chaotisch wird. Ich gehe geradeaus. Dies ist selbstverständlich in jeder IoT-Präsentation. Sie müssen auf die eine oder andere Weise etwas Ungeheuerliches darüber sagen, wohin es geht. Und tatsächlich ist das meiste davon wahrscheinlich wahr. Betrachtet man tatsächlich die Art und Weise, wie sich diese Kurven allmählich ausdehnen. Sie wissen, PCs, Smartphones und Tablets werden wahrscheinlich weiter steigen. Smart-TVs werden wahrscheinlich steigen. Wearables, sie explodieren wahrscheinlich gerade, verglichen mit dem, was sie vor ein paar Jahren waren. Verbundene Autos, unvermeidlich, dass so gut wie alle Autos durchgehend verbunden werden und die ganze Zeit durchgehend Daten übertragen. Und alles andere. Und diese spezielle Grafik von BI Intelligence zeigt, dass alles andere die offensichtlichen Dinge sehr, sehr schnell überwiegen wird.
Was soll man also über das IoT sagen? Das erste ist nur ein architektonischer Punkt. Weißt du, wenn du Daten hast und dich auf die eine oder andere Weise verarbeitest, musst du die beiden zusammenfügen. Und da die Daten auf dem aktuellen Stand sind und an verschiedenen Orten gesammelt werden, sind die beiden von Natur aus nicht mehr zusammen. Früher waren sie wohl in alten Mainframe-Zeiten. Sie können also davon ausgehen, dass es eine Verarbeitungsschicht, eine Transportschicht und eine Datenschicht gibt. Und auf die eine oder andere Weise wird die Transportschicht heutzutage die Verarbeitung oder die Daten über Netzwerke hinweg verschieben. Hier sind die Auswahlmöglichkeiten: Sie können die Daten in die Verarbeitung verschieben, Sie können die Verarbeitung in die Daten verschieben, Sie können die Verarbeitung und die Daten an einen geeigneten Ausführungspunkt verschieben oder Sie können die Verarbeitung und die Daten verschieben. Und was das Internet der Dinge angeht, sind die Daten bereits bei der Geburt so gut wie gelöscht, und es ist wahrscheinlich, dass ein sehr großer Teil der Verarbeitung gelöscht wird, damit die Anwendungen, die ausgeführt werden müssen, stattfinden können.
Also habe ich ein Bild gemalt. Das Interessante am IoT ist, dass ich in diesem Diagramm über eine Aggregationsdomäne spreche und darauf hinweise, dass es Unterdomänen gibt. Sie können sich also vorstellen, dass die IoT-Domäne 1 hier ein Auto ist, und Domäne 2 und Domäne 3 und Domäne 4 sind Autos, und Sie werden Daten lokal aggregieren, Sie werden lokale Apps auf diesen Daten ausführen und Sie werden verschiedene Dinge in die Tat umsetzen. Um jedoch Analysen für alle Autos zu erhalten, müssen Sie Daten an das Center übertragen, nicht unbedingt alle Daten, aber Sie müssen sie im Center aggregieren. Und wenn Sie darüber nachdenken, möchten Sie möglicherweise viele, viele verschiedene Aggregationsdomänen für dieselbe Gruppe von IoT-Dingen haben. Und die Domänen selbst könnten sich weiter aggregieren. Sie könnten also diese sich wiederholende Hierarchie haben. Und im Grunde genommen haben wir dort ein unglaublich komplexes Netzwerk. Weitaus komplexer als alles, was wir vorher haben mussten.
Ich habe hier unten eine Notiz. Alle Netzwerkknoten, einschließlich Blattknoten, können Datenersteller, Datenspeicher und Verarbeitungspunkte sein. Und das gibt Ihnen eine Verteilungsmöglichkeit, wie wir sie noch nie gesehen haben. Dez wird ein bisschen mehr darüber reden, also werde ich zu diesem speziellen Punkt übergehen. Sobald wir im Internet der Dinge sind und alle Daten tatsächlich zu Ereignissen geworden sind, soll diese Folie lediglich anzeigen, dass wir uns auf Ereignisse standardisieren müssen. Zumindest müssen wir das haben. Wir haben den Zeitpunkt des Ereignisses, den geografischen Ort, den virtuellen oder logischen Ort des Prozesses, der es erstellt hat, das Quellgerät, das es erstellt hat, die Geräte-ID, damit Sie genau wissen, welches Quellgerät es erstellt hat, die Eigentümerschaft Von den Daten und Akteuren, jenen Menschen, die das Recht haben, die Daten auf die eine oder andere Weise zu nutzen, müssen sie ihre Berechtigungen mit sich führen, was wirklich bedeutet, dass sie Sicherheit mit sich führen müssen, und dann gibt es sie die Daten selbst. Und wenn Sie sich das ansehen, erkennen Sie, dass selbst wenn Sie einen Sensor haben, der nur die Temperatur von ungefähr jeder Sekunde meldet, es tatsächlich eine ganze Menge Daten gibt, nur um genau zu identifizieren, wo die Daten sind entstanden und was es eigentlich ist. Dies ist übrigens keine vollständige Liste.
Was die zukünftige IT-Landschaft angeht, sehe ich dies so: Es ist nicht nur das Internet der Dinge, sondern auch die Tatsache, dass wir uns in einer Welt ereignisgesteuerter Aktivitäten befinden werden, und daher auch wir müssen ereignisgesteuerte Architekturen haben, und diese Architekturen müssen große Netzwerke umfassen. Und das andere ist alles in Echtzeit. Es ist nicht unbedingt so, dass wir in Echtzeit arbeiten, aber es gibt etwas, das ich als Geschäftszeit bezeichne. Dies ist die Zeit, in der Daten tatsächlich bereitgestellt und bereitgestellt werden müssen verarbeitet werden. Das ist vielleicht keine Millisekunde, nachdem es erstellt wurde. Aber es gibt immer eine solche Zeit für jedes Datenelement, und sobald Sie eine ereignisgesteuerte Architektur haben, wird es immer sinnvoller, in Echtzeit über die Funktionsweise der Welt nachzudenken.
Machen Sie es sich also gemütlich, denn wir sprechen wirklich über Analytik im Internet der Dinge. Trotz alledem ist es immer noch Zeit für Einsicht, und es ist nicht nur Zeit für Einsicht, auf Einsicht müssen Aktionen folgen. Zeit für Einsicht und Zeit zum Handeln ist das, worauf ich es reduzieren würde. Nachdem ich das gesagt habe, werde ich den Ball zurück an Dez geben.
Dez Blanchfield: Danke, Robin. Aufschlussreich wie immer. Ich liebe die Tatsache, dass es schwierig ist, in jedem Fall zu folgen, aber ich werde mein Bestes geben.
Eines der Dinge, die ich sehe und die mich oft unterhalten, um ehrlich zu sein, und nicht in einer unaufrichtigen und negativen Form, aber das Internet der Dinge, die die Welt erobern, bereitet mir große Sorge und Panik Wenn Sie uns einen Slot zuweisen, verlieren Sie Ihre Daten. Ich möchte daher einen kurzen Rückblick auf einige Dinge werfen, die wir in den letzten zwei bis drei Jahrzehnten getan haben und die dem Internet sehr nahe standen von Dingen, aber vielleicht nicht ganz im gleichen Maßstab. Und nur um uns zu zeigen, dass wir tatsächlich hier waren und einige der Probleme gelöst haben, nicht in dieser Größenordnung und nicht in dieser Geschwindigkeit. Weil es bedeutet, dass wir das Problem tatsächlich lösen können und dass wir einige der Antworten kennen; Wir müssen uns nur hinsetzen und einige der Erkenntnisse, die wir zuvor hatten, erneut anwenden. Und ich weiß, dass dies die gesamte Unterhaltung ist, die wir führen werden, und ich habe eine ganze Reihe von lustigen Dingen, über die wir uns im Abschnitt „Fragen und Antworten“ unterhalten können.
Aber wenn wir über das Internet der Dinge im Kreis nachdenken, gibt es derzeit eine große Zentralisierung auf einer Designebene, die in den frühen Tagen geschrieben wurde. Beispielsweise werden Fitbit-Geräte in der Regel an einem zentralen Ort gehostet, und es ist wahrscheinlich, dass sie irgendwo auf einer Cloud-Plattform gehostet werden und dass alle Daten von all diesen Geräten auf dasselbe Ende eines Stapels zugreifen, einschließlich Web und App und datenbasierte Dienste. Mit der Zeit erfordert diese Skalierung jedoch ein Re-Engineering, um mit der Menge an Daten fertig zu werden, die auf sie zukommen, und sie werden das Re-Engineering durchführen, damit es mehrere Frontends und mehrere Kopien des Stapels an mehreren Standorten und Regionen gibt. Und wir sehen das und es gibt eine Reihe von Beispielen, die ich Ihnen geben werde, die wir diskutieren können.
Der entscheidende Punkt dabei ist, dass, obwohl wir einige dieser Lösungen kennen, die ich gleich behandeln werde, der Umfang und das Volumen der Daten und der Netzwerkverkehr, die das Internet der Dinge erzeugen wird, dringend eine Verlagerung von zentraler Bedeutung erfordern Meiner Ansicht nach auf verteilte Architekturen zurückgreifen, und das wissen wir, aber wir haben die Lösung nicht unbedingt begriffen. Wenn wir über das Konzept des Internets der Dinge nachdenken, handelt es sich um ein großräumiges Netzwerkmodell. Es sind viele, viele Dinge, die jetzt Lärm machen. Dinge, die bis vor kurzem keinen Lärm machten. Und tatsächlich, ich glaube, es war gestern, ich habe scherzhaft über den Stapel gesprochen, aber ich habe mir einen neuen Toaster gekauft und es gab eine Option, die mir verschiedene Dinge sagen konnte, einschließlich wann es gereinigt werden musste. Und eine neue Mikrowelle mit einer sehr ähnlichen Funktion, die sogar eine App auf meinem Telefon anpingen konnte, um zu bestätigen, dass die Sache, die ich gerade aufwärmte, nun erledigt war. Und ich bin der festen Überzeugung, dass es sich bei ein paar Dingen, die ich nicht mit mir reden möchte, um meinen Kühlschrank, meine Mikrowelle und meine Toaster handelt. Ich fühle mich ziemlich wohl damit, dass sie blöde Geräte sind. Aber ich habe vor kurzem ein neues Auto bekommen, einen kleinen Audi, und das spricht mich an, und das freut mich sehr, denn die Dinge, über die es spricht, sind von Interesse. Aktualisieren Sie beispielsweise die Karten in Echtzeit, um mir mitzuteilen, wo es eine bessere Route gibt, um von Punkt A nach Punkt B zu gelangen, da der Verkehr durch verschiedene Mechanismen mit den gesendeten Daten erfasst wird.
Ich habe diese Folie. Wir haben bereits gesehen, dass bei Netzwerkmodellen mit hohem Datenaufkommen ein Wechsel von der zentralen zur verteilten Erfassung und Bereitstellung von Datenverarbeitungs- und Analysemodellen erforderlich ist. Wir haben gesehen, wie sich die Dinge von den drei kleinen Diagrammen dort am rechten Rand, wo wir sie haben, bewegen. Das linke von den drei ist ein zentralisiertes Modell, bei dem alle kleinen Geräte an den zentralen Ort kommen und Sammeln von Daten und die Skala ist nicht so groß, sie kommen dort gut zurecht. In der Mitte haben wir ein etwas dezentraleres Modell und Hub und haben gesprochen, was ich denke, dass wir mit dem Internet der Dinge in der nächsten Generation brauchen werden. Und dann haben wir auf der rechten Seite dieses vollständig verteilte und vernetzte Netzwerk, in dem das Internet der Dinge und von Maschine zu Maschine in naher Zukunft funktionieren wird, aber wir sind nicht ganz es aus einer Reihe von Gründen. Und vor allem, weil wir bisher für den Großteil der Kommunikation Internetplattformen verwenden und kein zweites Netzwerk aufgebaut haben, in dem viele dieser Daten gespeichert sind.
Es gibt bereits zweite Netzwerke wie das Batelco-Netzwerk. Viele Leute denken nicht daran, dass die Telekommunikationsnetze kein Internet sind. Das Internet ist in vielerlei Hinsicht eine sehr separate Sache. Sie leiten Daten von Smartphones über das Telefonnetz und dann über das Telefonnetz in das Internet im Allgemeinen, wo sie sie tatsächlich in zwei Netzwerke überlagern. Aber es ist durchaus möglich und wahrscheinlich, dass das Internet der Dinge ein anderes Netzwerk benötigt. Wir sprechen über das industrielle Internet als ein allgemeines Thema, auf das wir jetzt nicht näher eingehen. Im Wesentlichen geht es jedoch um ein anderes Netzwerk, das speziell für die Beförderungsarten für Daten oder das Internet der Dinge und von Maschine zu Maschine entwickelt wurde Kommunikation.
Aber einige der Beispiele, die ich teilen wollte, bei denen wir gesehen haben, dass Netzwerke mit hohem Datenvolumen und verteilte Daten sehr gut funktionieren, sind Dinge wie das Internet. Das Internet wurde vom ersten Tag an so konzipiert und gestaltet, dass es in der Lage ist, einen Atomkrieg zu überstehen. Wenn Teile der USA in die Luft gejagt werden, wurde das Internet so konzipiert, dass sich Daten aus Gründen, die uns noch verbinden, ohne Paketverlust im Internet bewegen können. Und das gibt es auch heute noch auf globaler Ebene. Das Internet verfügt über mehrere Funktionen zum Redundanz- und Weiterleiten von Paketen. Tatsächlich ist das Internet, das von BGP (Border Gateway Protocol) und Border Gateway Protocol (BGP) gesteuert wird, speziell für den Betrieb von Routern, Switches oder Servern ausgelegt. Wenn Sie eine E-Mail senden oder empfangen und drei E-Mails hintereinander senden, kann nicht garantiert werden, dass jede dieser E-Mails denselben Weg zum selben Endziel einschlägt. Sie können sich aus verschiedenen Gründen durch verschiedene Teile des Internets bewegen. Es könnte einen Ausfall geben, es könnte Wartungsfenster geben, in denen Dinge offline aktualisiert werden müssen, es könnte einfach zu einer Überlastung des Netzwerks kommen, und wir sehen dies bei Dingen wie Verkehrsnetzen mit Autos und öffentlichen Verkehrsmitteln sowie Schiffen und Flugzeugen. Wir übertragen Inhalte über Browser und so weiter jeden Tag über Content Delivery-Netzwerke auf unsere Geräte wie Laptops, Tablets und Computer. Bei Content Delivery-Netzwerken geht es darum, Kopien von Inhalten von Ihrer primären Serving-Plattform wie dem Webserver zu erstellen und Kopien davon und den Cache in kleinen Mengen an den Rand des Netzwerks zu verschieben und sie nur vom nächstgelegenen Teil des Randes an Sie weiterzuleiten.
Anti-Spam und Cybersicherheit - Wenn ein Spam-Ereignis in Kanada stattfindet und Microsoft feststellt, dass viele Kopien derselben E-Mail an eine Gruppe von zufälligen Personen gesendet werden, werden Prüfsummen erstellt. Dies ist eine Signatur für diese Nachricht erstellt und in ein Netzwerk gestellt und sofort verteilt. Und damit die E-Mail nie in meinen Posteingang gelangt oder wenn doch, wird sie sofort als Spam markiert, da sie an einer anderen Stelle am Rande des Netzwerks entdeckt wurde. Und so werden andere Teile des Netzwerks über diese Spam-Nachrichtensignatur informiert und in den Index einer Datenbank aufgenommen. Wenn diese Nachrichten auf der anderen Seite des Planeten erscheinen, erkennen wir sie und wissen, dass es sich um Spam handelt. Gleiches gilt für die Cybersicherheit. Ein Hack, der auf der einen Seite des Planeten stattfindet, wird erkannt und registriert und kartiert, und plötzlich können wir auf der anderen Seite des Netzwerks dagegen vorgehen, die Regeln und Richtlinien festlegen und Änderungen vornehmen, um festzustellen, ob wir ihn blockieren können. Insbesondere mit den neuen Auswirkungen von Dingen wie Denial-of-Service oder Distributed Denial-of-Service, bei denen Tausende von Computern zum Angriff auf eine zentrale Website verwendet werden.
Bitcoin und die Blockchain sind standardmäßig ein verteiltes Hauptbuch, die Blockchain, und bewältigen alle Ausfälle oder Brüche im Netzwerk. Betrugserkennung und -verhütung, Strom- und Wasserversorgung - wir sehen, Sie kennen das Stromnetz. Wenn ein Teil des Netzes einen Baum darauf landet und einen Pfahl und einen Draht herausnimmt, wird mein Haus immer noch mit Strom versorgt. Ich weiß nicht einmal davon, ich sehe es oft nicht einmal in den Nachrichten. Und wir sind alle an die Verkehrsnetze gewöhnt, in denen es ursprünglich ein zentrales Modell gab: „Alle Straßen führten nach Rom“, und schließlich mussten wir mit Hubs und Speichen zum dezentralen Modell wechseln, und dann gingen wir zu einem vermaschten Netzwerk, über das Sie über verschiedene vermaschte Routen und Kreuzungen von einer Seite der Stadt zur anderen gelangen können. Was wir hier sehen, ist, dass dieses zentralisierte Modell dessen, was wir jetzt mit dem Internet der Dinge tun, an den Rand des Netzwerks gedrängt werden muss. Dies gilt mehr denn je für die Analytik. Deshalb müssen wir die Analytik in das Netzwerk auslagern. Und dazu ist aus meiner Sicht ein völlig neuer Ansatz erforderlich, wie wir auf diese Daten und die Datenströme zugreifen und sie verarbeiten. Wir sprechen jetzt über ein Szenario, in dem meines Erachtens begrenzte Intelligenz auf Geräten mit Internetverbindung an den Rand des Netzwerks gedrängt wird, aber wir werden bald feststellen, dass diese Geräte intelligenter werden und die gewünschte Analysestufe erhöhen machen. Aus diesem Grund müssen wir diese intelligenten Funktionen immer weiter über das Netzwerk verbreiten.
Zum Beispiel Smart Apps und Social Media - wenn wir über Social Media und einige der Smart Apps nachdenken, sind sie immer noch sehr zentral. Wissen Sie, es gibt nur zwei oder drei Rechenzentren für Facebook. Google ist viel dezentraler geworden, aber es gibt immer noch eine begrenzte Anzahl von Rechenzentren auf der ganzen Welt. Wenn wir dann über die Personalisierung von Inhalten nachdenken, müssen Sie auf lokaler Ebene nachdenken. Vieles wird in Ihrem Browser oder auf der Ebene eines lokalen Content Delivery-Netzwerks ausgeführt. Und wir denken an Gesundheits- und Fitness-Tracker - viele der Daten, die von ihnen gesammelt werden, werden lokal analysiert, und die neuen Versionen der Garmin- und Fitbit-Geräte, die Sie an Ihrem Handgelenk tragen, werden immer intelligenter . Sie senden jetzt nicht alle Daten zu Ihrer Herzfrequenz zurück an einen zentralen Server, um zu versuchen, die Analysen durchzuführen. Sie bauen diese Intelligenz direkt in das Gerät ein. In der Autonavigation war es früher so, dass das Auto ständig Updates und Karten von einem zentralen Ort erhielt, jetzt sind die Smarts im Auto und das Auto trifft seine Entscheidungen ganz von selbst und irgendwann greifen die Autos ineinander. Die Autos werden über drahtlose Netzwerke in irgendeiner Form miteinander kommunizieren, die in der nächsten Generation über ein 3G- oder ein 4G-Drahtlosnetzwerk sein können, aber irgendwann werden es Geräte für Geräte sein. Und die einzige Möglichkeit, um mit der Lautstärke fertig zu werden, besteht darin, die Geräte intelligenter zu machen.
Wir haben bereits Notfallwarnsysteme, die Informationen lokal sammeln und diese zentral oder in ein Mesh-Netzwerk senden und Entscheidungen darüber treffen, was lokal geschieht. In Japan gibt es beispielsweise Anwendungen, die Menschen auf ihrem Smartphone mit Beschleunigungsmessern auf dem Smartphone ausführen. Die Beschleunigungsmesser im Smartphone erkennen Vibrationen und Bewegungen und können den Unterschied zwischen normalen Alltagsbewegungen und den Erschütterungen und Erschütterungen eines Erdbebens feststellen. Das Telefon wird Sie sofort vor Ort benachrichtigen. Die eigentliche App weiß, dass sie Erdbeben erkennt. Diese Daten werden jedoch auch über ein Netzwerk in einem verteilten Hub-and-Spoke-Modell gemeinsam genutzt, sodass Personen in Ihrer Nähe sofort oder so schnell wie möglich gewarnt werden, wenn die Daten durch das Netzwerk fließen. Und wenn es dann irgendwann an einen zentralen Ort oder eine verteilte Kopie des zentralen Ortes gelangt, wird es an Leute zurückgeschoben, die nicht in der unmittelbaren Umgebung sind, die Bewegung des Planeten nicht erkannt haben, aber deswegen gewarnt werden müssen Vielleicht kommt ein Tsunami.
Und Smart-City-Infrastruktur - das Konzept der intelligenten Infrastruktur, wir bauen den Intellekt bereits in intelligente Gebäude und intelligente Infrastruktur ein. Tatsächlich habe ich gestern mein Auto in der Stadt in einem neuen Bereich geparkt, in dem ein Teil der Stadt renoviert und wieder aufgebaut wird. Und sie haben alle Straßen überarbeitet, und es gibt Sensoren auf den Straßen, und die Parkuhr weiß, dass wenn ich mit einem Auto eingefahren bin, weiß sie, dass ich mich für die zweistündige Grenze auffrische Das Auto hat sich nicht bewegt und es würde mich eigentlich nicht noch zwei Stunden nachfüllen lassen. Ich musste ins Auto steigen, aus dem Raum herausfahren und mich dann zurückziehen, um es auszutricksen, damit ich noch zwei Stunden dort bleiben konnte. Aber was interessant ist, ist, dass wir irgendwann den Punkt erreichen, an dem das Auto nicht nur als lokaler Sensor in den Bereich einfährt, sondern auch optische Eigenschaften, bei denen die Erkennung mit Kameras, die auf mein Nummernschild schauen, angewendet wird dass ich mich tatsächlich nur herausgezogen und wieder hineingezogen und es ausgetrickst habe, und es mich einfach nicht erneuern lässt und ich weitermache. Und dann werden diese Daten verteilt und sichergestellt, dass ich das nirgendwo anders tun kann, und das Netzwerk wird auch laufend betrogen. Weil es von Natur aus schlauer werden muss, sonst werden wir es alle weiter täuschen.
Es gibt ein Beispiel dafür, in dem ich persönlich gelebt habe, in der Firewall-Technologie, in den späten 80ern und frühen 90ern, ein Produkt namens Check Point FireWall-1. Eine sehr einfache Firewall-Technologie, mit der wir Regeln erstellt und Richtlinien und Regeln für bestimmte Dinge erstellt haben, um anzuzeigen, dass Datenverkehrstypen über bestimmte Ports und IP-Adressen und Netzwerke miteinander in Verbindung stehen und den Webdatenverkehr von einem Ort zum anderen steuern. Vom Browser- und Client-Ende zum Server-Ende. Wir haben dieses Problem gelöst, indem wir die Logik tatsächlich aus den Firewalls genommen und in den ASIC, den anwendungsspezifischen integrierten Schaltkreis, verschoben haben. Es kontrollierte die Ports in Ethernet-Switches. Wir stellten fest, dass die Servercomputer, die Computer, die wir tatsächlich als Server verwendeten, um Entscheidungen als Firewalls zu treffen, nicht leistungsfähig genug waren, um das Verkehrsvolumen zu bewältigen, das sie für jedes kleine Stück Paketprüfung durchlaufen. Wir haben das Problem gelöst, indem wir die für die Paketinspektion und Interneterkennung erforderliche Logik in die Netzwerk-Switches verlagert haben, die verteilt waren und mit dem Datenvolumen auf Netzwerkebene umgehen konnten. Auf zentraler Ebene mit Firewalls haben wir uns darüber keine Gedanken gemacht, wir haben es auf die Switches verschoben.
Deshalb haben die Hersteller die Möglichkeit geschaffen, Pfade, Regeln und Richtlinien in den Ethernet-Switch zu übertragen, damit auf der Ebene der tatsächlichen Ethernet-Ports und möglicherweise auch bei vielen Mitarbeitern im Pool diese Informationen nicht bekannt sind Jetzt lebten sie alle in einer drahtlosen Welt, aber früher musste alles über Ethernet angeschlossen werden. Jetzt haben wir auf der Ethernet-Port-Ebene die Pakete überprüft, um festzustellen, ob die Pakete überhaupt in den Switch und in das Netzwerk gelangen dürfen. Einige davon lösen wir jetzt, um die Herausforderung zu lösen, Daten im Netzwerk, insbesondere von den IRT-Geräten, zu erfassen, zu untersuchen, zu analysieren und wahrscheinlich in Echtzeit zu analysieren, um Entscheidungen zu treffen. Ein Teil davon dient dazu, Einblicke in Business Intelligence zu gewinnen und Informationen darüber zu erhalten, wie Menschen bessere Entscheidungen treffen, und andere Analysen und Leistungsmerkmale für Dinge auf Maschine-zu-Maschine-Ebene, bei denen Geräte mit Geräten sprechen und Entscheidungen treffen.
Und dies wird ein Trend sein, den wir in naher Zukunft zu lösen suchen müssen, denn wenn wir dies nicht tun, werden wir nur mit dieser Flut von Lärm enden. Und wir haben in der Big-Data-Welt gesehen, dass Dinge wie Data Lakes zu Datensümpfen werden, bei denen es zu einer Flut von Rauschen kommt, für die wir nicht herausgefunden haben, wie die Verarbeitungsanalyse in einer zentralen Umgebung gelöst werden kann Mode. Wenn wir dieses Problem meines Erachtens nicht sofort mit dem IoT lösen und sehr schnell eine Plattformlösung erhalten, werden wir an einem sehr, sehr schlechten Ort enden.
In diesem Sinne möchte ich mit dem Punkt schließen, dass ich glaube, dass eine der größten Veränderungen im Bereich Big Data und Analytics von der unmittelbaren Notwendigkeit getrieben wird, auf die Auswirkungen des Internets zu reagieren von Dingen, die sich mit High-Volume- und Echtzeitanalysen befassen, müssen wir die Analysen in das Netzwerk verschieben und schließlich an den Rand des Netzwerks, um mit dem schieren Volumen fertig zu werden, nur um es zu verarbeiten. Und dann setzen wir hoffentlich die Informationen in einem Hub-and-Spoke-Modell in das Netzwerk und den Rand des Netzwerks ein, damit wir sie tatsächlich verwalten und Einblicke in Echtzeit gewinnen und daraus Nutzen ziehen können. Und damit gehe ich zu unserem Gast und sehe, wohin uns dieses Gespräch führt.
Shawn Rogers: Vielen Dank. Dies ist Shawn Rogers von Dell Statistica und zunächst einmal stimme ich allen wichtigen Themen zu, die hier angesprochen wurden. Und Rebecca, Sie haben mit der Idee begonnen, dass diese Daten nicht neu sind, und es ist bemerkenswert, wie viel Zeit und Energie für die Diskussion der Daten, der Daten und der Daten des IoT aufgewendet wird. Und es ist auf jeden Fall relevant, weißt du, Robin hat einen guten Punkt gemacht, auch wenn du etwas wirklich Einfaches tust und einmal pro Sekunde an einen Thermostat klopfst, weißt du, das tust du 24 Stunden am Tag und das hast du tatsächlich Sie wissen, einige interessante Datenherausforderungen. Aber am Ende - und ich denke, viele Leute in der Branche sprechen auf diese Weise über die Daten - ist es nicht wirklich so interessant und nach Rebeccas Ansicht ist es schon eine gute, lange Zeit her, aber wir haben es in der Vergangenheit nicht gut genutzt. Und ich denke, die Advanced Analytics-Branche und die BI-Branche im Allgemeinen wenden sich langsam dem IoT zu. Und Dez, bis zu Ihrem letzten Punkt, ist es meiner Meinung nach sehr richtig, Teil oder einer der herausfordernden Punkte der Big-Data-Landschaft zu sein. Ich denke, jeder ist sehr aufgeregt darüber, was wir mit dieser Art von Daten anfangen können, aber gleichzeitig denke ich, wenn wir nicht herausfinden können, wie man Einsichten anwendet, Maßnahmen ergreift und, wissen Sie, Analysen erhält, wo sich die Daten befinden Wir werden Herausforderungen haben, die die Leute nicht wirklich sehen.
Trotzdem sind wir im Bereich Advanced Analytics große Fans dessen, was unserer Meinung nach mit IoT-Daten passieren kann, insbesondere wenn wir Analytics darauf anwenden. Diese Folie enthält eine Menge Informationen, und ich lasse jeden einfach herumjagen und picken, aber wenn Sie sich verschiedene Branchen wie den Einzelhandel ganz rechts ansehen, sehen Sie, wie sich die Chance ergibt, innovativer zu sein oder welche zu haben Kosteneinsparungen, Prozessoptimierungen oder -verbesserungen sind sehr wichtig, und dafür gibt es viele Anwendungsfälle. Wenn Sie von links nach rechts über die Folie schauen, werden Sie sehen, wie jede dieser einzelnen Branchen neue Funktionen und neue Differenzierungsmöglichkeiten für sich beansprucht, wenn sie Analysen auf das IoT anwenden. Unter dem Strich muss man sich nicht nur um die Daten, wie wir sie besprochen haben, und die Architektur sorgen, sondern auch überlegen, wie man am besten vorgeht, wenn man diesen Weg beschreitet Wenden Sie die Analysen darauf an und wo die Analysen stattfinden müssen.
Für viele von uns, die heute telefonieren, kennen Robin und ich uns schon sehr lange und haben unzählige Gespräche über traditionelle Architekturen geführt, über zentrale Datenbanken oder Enterprise Data Warehouses und so weiter. Wir haben in den letzten zehn Jahren festgestellt, dass wir die Beschränkungen dieser Infrastrukturen recht gut ausbauen können. Und sie sind nicht so standhaft oder stark, wie wir es uns heute gewünscht haben, um all die großartigen Analysen zu unterstützen, die wir auf die Informationen anwenden, und natürlich auch die Informationen, die die Architektur brechen. Die Geschwindigkeit der Daten, das Datenvolumen usw. erweitern definitiv die Grenzen einiger unserer traditionelleren Ansätze und Strategien für diese Art von Arbeit. Ich denke, es beginnt sich darum zu bemühen, dass Unternehmen eine agilere und vielleicht flexiblere Sichtweise einnehmen, und das ist der Teil, über den ich ein wenig auf der IoT-Seite sprechen möchte.
Bevor ich es tue, nehme ich mir einen Moment Zeit, um alle Teilnehmer an dem Anruf teilzunehmen und Ihnen ein wenig Hintergrundwissen darüber zu geben, was Statistica ist und was wir tun. Wie Sie auf dem Titel dieser Folie sehen können, handelt es sich bei Statistica um eine prädiktive Analyse, Big Data und Visualisierung für die IoT-Plattform. Das Produkt selbst ist etwas mehr als 30 Jahre alt und wir stehen im Wettbewerb mit den anderen Marktführern, mit denen Sie wahrscheinlich vertraut sind, da sie Predictive Analytics und Advanced Analytics auf Daten anwenden können. Wir sahen eine Gelegenheit, unsere Reichweite dahin zu erweitern, wo wir unsere Analysen platziert haben, und haben vor einiger Zeit begonnen, an einigen Technologien zu arbeiten, die uns recht gut positioniert haben, um die Vorteile zu nutzen, über die sowohl Dez als auch Robin heute gesprochen haben, und zwar diesen neuen Ansatz Wo werden Sie die Analysen platzieren und wie werden Sie sie mit den Daten verschmelzen. Daneben gibt es noch andere Dinge, die Sie mit der Plattform erledigen müssen, und wie ich bereits erwähnte, ist Statistica schon lange auf dem Markt. Wir sind auf dem Gebiet der Datenmischung sehr gut und ich denke, Sie wissen, wir haben heute nicht allzu viel über den Datenzugriff gesprochen, aber wir sind in der Lage, über diese verschiedenen Netzwerke zuzugreifen und die richtigen Daten auf der Website zu erhalten Der richtige Zeitpunkt wird für die Endbenutzer immer interessanter und wichtiger.
Abschließend möchte ich noch einen weiteren Punkt an dieser Stelle kommentieren, da Dez einen guten Punkt in Bezug auf die Netzwerke selbst gemacht hat und ein gewisses Maß an Kontrolle und Sicherheit über Analysemodelle in Ihrer gesamten Umgebung hat und wie sie sich selbst an die Daten anpassen, die sehr wichtig werden. Als ich vor ein paar Jahren in diese Branche eingestiegen bin - ich glaube fast 20 -, als wir über Advanced Analytics sprachen, war das sehr kuratiert. Nur ein paar Leute in der Organisation hatten ihre Hände darauf, sie setzten es ein und sie gaben den Leuten die Antwort nach Bedarf oder lieferten Einblicke nach Bedarf. Das ändert sich wirklich, und wir sehen, dass viele Menschen mit einer oder mehreren unterschiedlichen und flexibleren Methoden gearbeitet haben, um auf die Daten zuzugreifen, Sicherheit und Governance anzuwenden und dann in der Lage zu sein, daran zusammenzuarbeiten. Dies sind einige der wichtigen Dinge, die Dell Statistica betrachtet.
Ich möchte jedoch auf das Thema eingehen, das dem heutigen Titel etwas näher kommt: Wie sollen wir mit den Daten aus dem Internet der Dinge umgehen und wonach Sie suchen, wenn Sie nach verschiedenen Lösungen suchen? Die Folie, die ich gerade vor Ihnen aufgestellt habe, ist eine Art traditionelle Ansicht, und sowohl Dez als auch Robin haben diese Idee, mit einem Sensor zu sprechen, angefasst, sei es ein Auto oder ein Toaster oder eine Windkraftanlage oder was haben Sie und verschieben Sie diese Daten dann von der Datenquelle in Ihr Netzwerk zurück in eine zentralisierte Konfiguration, wie Dez erwähnte. Und es vernetzt sich recht gut, und viele Unternehmen, die ursprünglich in den IoT-Bereich eingestiegen sind, beginnen, dies mit diesem Modell zu tun.
Das andere, was sich ergab, wenn Sie zum unteren Rand der Folie blicken, ist die Idee, andere herkömmliche Datenquellen zu verwenden, Ihre IoT-Daten zu erweitern und dann auf diese Art von Kern zuzugreifen, unabhängig davon, ob es sich bei Ihrem Kern um ein Rechenzentrum oder um ein Rechenzentrum handelt Möglicherweise befindet sich das Produkt in der Cloud, es spielt jedoch keine Rolle. Nehmen Sie ein Produkt wie Statistica, und wenden Sie an diesem Punkt Analysen darauf an, und geben Sie diese Erkenntnisse dann rechts an die Verbraucher weiter. Und ich denke, dass dies zu diesem Zeitpunkt Tischeinsätze sind. Dies ist etwas, was Sie können müssen, und Sie müssen eine Architektur haben, die offen genug für eine fortschrittliche Analyseplattform ist, und mit all diesen verschiedenen Datenquellen, all diesen Sensoren und all diesen unterschiedlichen Zielen sprechen, an denen Sie haben die Daten. Und ich denke, dass dies etwas ist, was Sie können müssen, und ich denke, dass Sie feststellen werden, dass viele Marktführer in der Lage sind, diese Art von Dingen zu tun. Hier bei Statistica wird dies als Kernanalyse bezeichnet. Holen Sie sich die Daten, bringen Sie die Daten wieder in den Core, verarbeiten Sie sie, fügen Sie bei Bedarf oder falls vorteilhaft weitere Daten hinzu, analysieren Sie sie und geben Sie diese Informationen für Handlungen oder Erkenntnisse weiter.
Und so denke ich, dass dies sicherlich vom Standpunkt der Funktion aus gesehen ist. Wir sind uns wahrscheinlich alle einig, dass dies die absolute Notwendigkeit ist und dass jeder dies tun muss. Es wird immer interessanter, wenn Sie riesige Datenmengen haben, die aus verschiedenen Datenquellen stammen, wie z. B. IoT-Sensoren. Wie ich bereits erwähnte, ob es sich um ein Auto, eine Überwachungskamera oder einen Herstellungsprozess handelt, beginnt dies Ein Vorteil, wenn Sie die Analyse dort durchführen können, wo die Daten tatsächlich erstellt werden. Und der Vorteil für die meisten Leute, denke ich, wenn wir anfangen, die Analyse vom Kern zum Rand zu verlagern, ist diese Fähigkeit, einige der Datenherausforderungen, die auftreten, zu verbreiten, und Dez und Robin werden dies wahrscheinlich am Ende kommentieren Heute, aber ich denke, dass Sie in der Lage sein müssen, Daten am Rand zu überwachen und Maßnahmen zu ergreifen, damit es nicht immer notwendig ist, all diese Daten in Ihr Netzwerk zu verschieben. Robin sprach darüber in seinen Architekturbildern, in denen Sie all diese verschiedenen Quellen haben, aber normalerweise gibt es einen Aggregationspunkt. Der Aggregationspunkt, den wir häufig sehen, befindet sich entweder auf Sensorebene, aber noch häufiger auf Gatewayebene. Und diese Gateways existieren als eine Art Vermittler im Datenfluss aus den Datenquellen, bevor Sie zum Kern zurückkehren.
Eine der Möglichkeiten, die Dell Statistica genutzt hat, besteht darin, dass wir ein Modell aus unserer zentralisierten Advanced Analytics-Plattform exportieren können, um ein Modell aufzunehmen und dieses Modell dann am Rande auf einer anderen Plattform wie einem Gateway oder im Inneren auszuführen einer Datenbank, oder was hast du. Und ich denke, die Flexibilität, die uns bietet, ist der wirklich interessante Punkt des heutigen Gesprächs: Haben Sie das heute in Ihrer Infrastruktur? Sind Sie in der Lage, eine Analyse an den Ort zu verschieben, an dem sich die Daten befinden, und verschieben Sie die Daten immer an den Ort, an dem sich Ihre Analysen befinden? Und darauf konzentriert sich Statistica schon seit einiger Zeit. Wenn Sie sich die Folien genauer ansehen, werden Sie feststellen, dass noch eine andere Technologie von unserer Schwesterfirma Dell Boomi vorhanden ist. Dell Boomi ist eine Plattform für Datenintegration und Anwendungsintegration in der Cloud. Wir verwenden Dell Boomi als Trafficking-Gerät, um unsere Modelle von Dell Statistica über Boomi zu Edge-Geräten zu verschieben. Und wir glauben, dass dies ein agiler Ansatz ist, den Unternehmen fordern werden, so sehr sie die Version mögen, die ich Ihnen vor einer Minute gezeigt habe. Dies ist die Kernidee, um Daten von den Sensoren zurück auf die zu übertragen Gleichzeitig werden Unternehmen in der Lage sein wollen, dies so zu tun, wie ich es hier skizziere. Die Vorteile dabei liegen in einigen Punkten, die sowohl Robin als auch Dez angesprochen haben: Können Sie eine Entscheidung treffen und in der Geschwindigkeit Ihres Geschäfts handeln? Können Sie Analysen von einem Ort an einen anderen verschieben und sich Zeit, Geld, Energie und Komplexität sparen, wenn Sie diese Randdaten ständig zurück in den Kern verschieben?
Jetzt sage ich als Erster, dass einige der Edge-Daten immer von ausreichendem Wert sind, wenn es sinnvoll ist, diese Daten zu speichern, zu speichern und wieder in Ihr Netzwerk zu übertragen, aber welche Edge-Analyse ermöglicht es Ihnen Ist die Fähigkeit, Entscheidungen mit der Geschwindigkeit zu treffen, mit der die Daten tatsächlich ankommen, richtig? Dass Sie die Einsicht und die Aktion in einer Geschwindigkeit anwenden können, in der der höchstmögliche Wert liegt. Und ich denke, das ist etwas, wonach wir alle suchen werden, wenn wir fortschrittliche Analysen und IoT-Daten nutzen wollen. Dies ist die Gelegenheit, mit der Geschwindigkeit des Unternehmens oder der Geschwindigkeit, die der Kunde verlangt, voranzukommen. Ich denke, wir sind der Meinung, dass Sie in der Lage sein müssen, beides zu tun. Und ich denke, dass sehr bald und sehr schnell, da immer mehr Unternehmen, insbesondere von der IoT-Seite, auf vielfältigere Datensätze achten, sich mit dem Bereich der Anbieter befassen und nachfragen werden, wozu Statistica in der Lage ist. Das heißt, ein Modell im Kern bereitzustellen, wie wir es traditionell seit vielen Jahren tun, oder es auf Plattformen bereitzustellen, die vielleicht nicht traditionell sind, wie ein IoT-Gateway, und tatsächlich in der Lage zu sein, Daten zu bewerten und zu analysieren am rande wie die daten produziert werden. Und ich denke, hier kommt der aufregende Teil dieses Gesprächs ins Spiel. Weil wir in der Lage sind, eine Analyse am Rande anzuwenden, wenn die Daten von einem Sensor kommen, können wir so schnell handeln, wie wir müssen. Aber wir können auch entscheiden, ob diese Daten sofort bis zum Kern zurückkehren müssen. Können wir es hier stapeln und dann in Stücken und Teilen zurücksenden und später weiter analysieren? Und genau das sehen wir bei vielen unserer führenden Kunden.
Die Art und Weise, wie Dell Statistica dies tut, ist unsere Fähigkeit zu nutzen. Nehmen wir beispielsweise an, Sie bauen ein neuronales Netzwerk in Statistica auf und Sie möchten das neuronale Netzwerk an einer anderen Stelle in Ihrer Datenlandschaft platzieren. Wir haben die Möglichkeit, diese Modelle und alle Sprachen, die Sie in der rechten Ecke gesehen haben, auszugeben - Java, PPML, C und SQL usw., wir enthalten auch Python und wir können auch unsere Skripte exportieren. Wenn Sie das von unserer zentralisierten Plattform entfernen, können Sie das Modell oder den Algorithmus dann überall dort einsetzen, wo Sie ihn benötigen. Und wie ich bereits erwähnt habe, verwenden wir Dell Boomi, um es dort abzulegen und zu parken, wo es ausgeführt werden muss. Anschließend können wir die Ergebnisse zurückholen oder mithilfe unserer Regelengine Daten zurückholen oder die Daten bewerten und Maßnahmen ergreifen . All diese Dinge werden irgendwie wichtig, wenn wir uns diese Art von Daten ansehen und darüber nachdenken.
Dies ist etwas, was die meisten von Ihnen am Telefon tun müssen, da es sehr teuer und anstrengend für Ihr Netzwerk wird, wie Dez bereits erwähnt hat, Daten von der linken Seite dieser Diagramme zur rechten Seite dieser Diagramme zu verschieben Zeit. Es hört sich nicht viel an, aber wir haben Fertigungskunden mit zehntausenden Sensoren in ihren Fabriken gesehen. Und wenn Sie in Ihrer Fabrik zehntausend Sensoren haben, selbst wenn Sie diese nur für eine zweite Art von Tests oder Signalen verwenden, sprechen Sie von 84.000 Datenzeilen von jedem dieser einzelnen Sensoren pro Tag. Und so häufen sich die Daten definitiv und Robin erwähnte das irgendwie. Vorab habe ich einige Branchen erwähnt, in denen die Menschen mit unserer Software und IoT-Daten einige ziemlich interessante Dinge erledigen: Gebäudeautomation, Energie, Energieversorgung sind ein wirklich wichtiger Bereich. Wir sehen eine Menge Arbeit in der Systemoptimierung, sogar im Kundendienst und natürlich im gesamten Betrieb und der Wartung, in den Energieeinrichtungen und im Gebäude für die Automatisierung. Und dies sind einige Anwendungsfälle, von denen wir sehen, dass sie ziemlich mächtig sind.
Wir haben schon früher Edge-Analysen durchgeführt, ich denke, der Begriff wurde geprägt. Wie bereits erwähnt, haben wir bei Statistica tiefe Wurzeln. Das Unternehmen wurde vor fast 30 Jahren gegründet, daher gibt es schon seit geraumer Zeit Kunden, die IoT-Daten in ihre Analysen integrieren. Und Alliant Energy ist einer unserer Anwendungsfälle oder Referenzkunden. Und Sie können sich das Problem vorstellen, das ein Energieunternehmen mit einer physischen Anlage hat. Es ist schwierig, über die Ziegelwände einer physischen Anlage hinaus zu skalieren. Daher suchen Energieunternehmen wie Alliant nach Möglichkeiten, ihre Energieerzeugung zu optimieren, ihren Herstellungsprozess zu optimieren und auf höchstem Niveau zu optimieren. Mit Statistica verwalten sie die Öfen in ihren Werken. Und für uns alle, die wir in die Anfänge des naturwissenschaftlichen Unterrichts zurückgehen, wissen wir alle, dass die Öfen Wärme erzeugen, die Wärme Dampf erzeugt, die Turbinen sich drehen, wir Elektrizität erhalten. Das Problem für Unternehmen wie Alliant besteht darin, zu optimieren, wie sich die Dinge in diesen großen Zyklonöfen erwärmen und verbrennen. Und die Ausgabe optimieren, um die zusätzlichen Kosten von Verschmutzung, Kohlenstoffverdrängung usw. zu vermeiden. Sie müssen also in der Lage sein, das Innere eines dieser Zyklonöfen mit all diesen Geräten und Sensoren zu überwachen, alle Sensordaten zu erfassen und den Energieprozess fortlaufend zu ändern. Und genau das macht Statistica seit etwa 2007 für Alliant, bevor selbst der Begriff IoT sehr beliebt war.
Zu Rebeccas frühem Standpunkt sind die Daten sicherlich nicht neu. Die Fähigkeit, es richtig zu verarbeiten und zu verwenden, ist wirklich der Ort, an dem die aufregenden Dinge geschehen. Wir haben heute in der Vorbesprechung ein wenig über die Gesundheitsfürsorge gesprochen, und wir sehen alle Arten von Anwendungen für Leute, um Dinge wie bessere Patientenversorgung, vorbeugende Wartung, Lieferkettenmanagement und betriebliche Effizienz im Gesundheitswesen zu erledigen. Und das ist noch nicht abgeschlossen und es gibt viele verschiedene Anwendungsfälle. Eines, auf das wir bei Statistica sehr stolz sind, ist unser Kunde Shire Biopharmaceuticals. Und Shire stellt Spezialmedikamente für wirklich schwer zu behandelnde Krankheiten her. Und wenn sie eine Charge ihrer Medikamente für ihre Kunden herstellen, ist dies ein extrem teurer Prozess und dieser extrem teure Prozess braucht auch Zeit. Wenn Sie an einen Fertigungsprozess denken, sehen Sie, dass die Herausforderungen darin bestehen, alle Daten zu vereinheitlichen, flexibel genug zu sein, um Daten in das System einzufügen, die Informationen zu validieren und dann vorauszusagen, wie wir diesem Kunden helfen. Und die Prozesse, die die meisten Informationen aus unseren Fertigungssystemen bezogen, und natürlich die Geräte und Sensoren, die diese Fertigungssysteme antreiben. Und es ist ein großartiger Anwendungsfall dafür, wie Unternehmen Verluste vermeiden und ihre Herstellungsprozesse optimieren, indem sie eine Kombination aus Sensordaten, IoT-Daten und regulären Daten aus ihren Prozessen verwenden.
Sie wissen also, ein gutes Beispiel dafür, wo das verarbeitende Gewerbe und insbesondere das Hightech-verarbeitende Gewerbe von dieser Art von Arbeit und Daten profitiert. Ich denke, ich habe nur ein paar andere Punkte, die ich gerne ansprechen möchte, bevor ich es einpacke und an Dez und Robin zurückgebe. Ich denke jedoch, dass diese Idee, Ihre Analyse überall in Ihrer Umgebung zu veröffentlichen, für die meisten Unternehmen von größter Bedeutung sein wird. Die Anbindung an das traditionelle Format der ETL-Übertragung von Daten von Quellen zurück zu zentralen Speicherorten hat immer einen Platz in Ihrer Strategie, sollte jedoch nicht Ihre einzige Strategie sein. Man muss heute viel flexibler vorgehen. Um die von mir erwähnte Sicherheit anzuwenden, vermeiden Sie die Belastung Ihres Netzwerks, können Sie die Daten so verwalten und filtern, wie sie vom Rand kommen, und bestimmen Sie, welche Daten es wert sind, langfristig aufbewahrt zu werden, welche Daten es wert sind, verschoben zu werden oder welche Daten zum Zeitpunkt der Erstellung lediglich analysiert werden müssen, damit wir die bestmöglichen Entscheidungen treffen können. Dieser analytische Ansatz von überall und jederzeit liegt uns bei Statistica sehr am Herzen und wir beherrschen ihn sehr gut. Und es geht auf eine der zuvor erwähnten Folien zurück, nämlich die Möglichkeit, Ihre Modelle in einer Vielzahl von Sprachen zu exportieren, damit sie mit den Plattformen übereinstimmen und ausgerichtet werden können, auf denen die Daten erstellt werden. Und dann natürlich ein Verteilergerät für diese Modelle, das wir auch mit auf den Tisch bringen und auf das wir uns sehr freuen. Ich denke, dass die heutige Konversation lautet: Wenn wir wirklich ernsthaft mit diesen Daten umgehen wollen, die schon lange in unseren Systemen vorhanden sind, und wir einen Wettbewerbsvorteil und einen innovativen Ansatz für deren Nutzung finden möchten, müssen Sie sich bewerben eine Technologie, die es Ihnen ermöglicht, sich von einigen dieser restriktiven Modelle zu lösen, die wir in der Vergangenheit verwendet haben.
Mein Punkt ist, dass Sie, wenn Sie IoT machen wollen, in der Lage sein müssen, es im Kern zu tun und die Daten einzubringen und mit anderen Daten abzugleichen und Ihre Analysen durchzuführen. Ebenso wichtig oder sogar noch wichtiger ist, dass Sie über diese Flexibilität verfügen, um die Analyse mit den Daten zu verknüpfen und die Analyse von der zentralen Seite Ihrer Architektur an den Rand der oben genannten Vorteile zu verschieben Vor. Das ist ein bisschen darüber, wer wir sind und was wir auf dem Markt tun. Wir freuen uns sehr über das Internet der Dinge (IoT) und sind der Meinung, dass es definitiv erwachsen wird und dass jeder hier die Möglichkeit hat, seine Analysen und kritischen Prozesse mit diesem Datentyp zu beeinflussen.
Rebecca Jozwiak: Shawn, vielen Dank, das war eine fantastische Präsentation. Und ich weiß, dass Dez wahrscheinlich sterben wird, um Ihnen ein paar Fragen zu stellen, also werde ich Sie zuerst gehen lassen.
Dez Blanchfield: Ich habe eine Million Fragen, aber ich werde mich enthalten, weil ich weiß, dass Robin dies auch tun wird. Eines der Dinge, die ich weit und breit sehe, ist eine Frage, die auftaucht, und ich bin sehr daran interessiert, einen Einblick in Ihre diesbezüglichen Erfahrungen zu bekommen, da Sie mitten im Geschehen sind. Unternehmen haben mit der Herausforderung zu kämpfen und einige von ihnen haben gerade „Die vierte industrielle Revolution“ von Klaus Schwab gelesen und hatten dann eine Panikattacke. Und diejenigen, die mit diesem Buch nicht vertraut sind, es ist im Wesentlichen eine Einsicht von einem Gentlemen, von Klaus Schwab, von dem ich denke, dass er ein Professor ist, der der Gründer und Executive Chairman des World Economic Forum ist, und es geht im Wesentlichen um das Buch dieses ganze allgegenwärtige Internet der Dinge explodiert und einige der Auswirkungen auf die Welt im Allgemeinen. Die Unternehmen, mit denen ich spreche, sind sich nicht sicher, ob sie die aktuelle Umgebung nachrüsten oder alles in den Bau neuer Umgebungen, Infrastrukturen und Plattformen investieren sollen. Sehen Sie auch in Dell Statistica, wie Mitarbeiter aktuelle Umgebungen nachrüsten und Ihre Plattform in vorhandene Infrastrukturen implementieren, oder sehen Sie, wie sie sich darauf konzentrieren, neue Infrastrukturen aufzubauen und sich auf diese Flut vorzubereiten?
Shawn Rogers: Wissen Sie, wir hatten die Möglichkeit, beide Arten von Kunden zu bedienen und auf dem Markt zu sein, solange wir diese Möglichkeiten haben. Wir haben Kunden, die in den letzten Jahren fabrikneue Anlagen gebaut und diese während des gesamten Prozesses von Anfang bis Ende mit Sensordaten, IoT und Analysen ausgestattet haben. Aber ich muss sagen, dass die meisten unserer Kunden Menschen sind, die diese Art von Arbeit für eine Weile erledigt haben, aber gezwungen waren, diese Daten zu ignorieren. Weißt du, Rebecca hat es gleich vorweg genommen - das sind keine neuen Daten, diese Art von Informationen sind schon seit langer Zeit in vielen verschiedenen Formaten verfügbar, aber wo das Problem war, ist die Verbindung dazu. Bewegen Sie es, bringen Sie es an einen Ort, an dem Sie etwas Kluges damit anstellen können.
Und so würde ich sagen, dass die meisten unserer Kunden auf das schauen, was sie heute haben, und Dez, Sie haben dies bereits erwähnt, dass dies Teil dieser Big-Data-Revolution ist und ich denke, dass es wirklich darum geht, es geht um alles Datenrevolution, richtig? Wir müssen bestimmte Systemdaten, Fertigungsdaten oder Gebäudeautomationsdaten nicht mehr ignorieren, sondern verfügen jetzt über die richtigen Spielzeuge und Werkzeuge, um sie zu beschaffen und dann intelligente Dinge daraus zu machen. Und ich denke, dass es in diesem Bereich viele Fahrer gibt, die das möglich machen, und einige von ihnen sind technologisch. Wissen Sie, die Big-Data-Infrastrukturlösungen wie Hadoop und andere haben es für einige von uns ein wenig günstiger und einfacher gemacht, über die Erstellung eines Datensees für diese Art von Informationen nachzudenken. Und jetzt schauen wir uns im Unternehmen um: „Hey, wir haben Analysen in unserem Herstellungsprozess, aber würden sie verbessert, wenn wir einen Einblick in diese Prozesse gewinnen könnten?“ Und das ist, glaube ich, der größte Teil davon Unsere Kunden tun. Es geht nicht so sehr darum, von Grund auf etwas zu erstellen, sondern die bereits vorhandenen Analysen mit Daten zu erweitern und zu optimieren, die für sie neu sind.
Dez Blanchfield: Ja, es gibt einige aufregende Dinge in einigen der größten Branchen, die wir gesehen haben, und Sie haben die Stromversorgung und die Versorgungsunternehmen erwähnt. Die Luftfahrt erlebt gerade diesen Boom, in dem eines meiner Lieblingsgeräte aller Zeiten, über das ich regelmäßig spreche, der Boeing 787 Dreamliner und mit Sicherheit das Airbus-Äquivalent, der A330, denselben Weg eingeschlagen hat. Als der 787 zum ersten Mal auf den Markt kam, gab es ungefähr sechstausend Sensoren, und ich glaube, in der neuen Version geht es jetzt um fünfzehntausend Sensoren. Und das Merkwürdige am Gespräch mit einigen der Menschen auf dieser Welt war, dass die Idee, Sensoren in die Flügel und so weiter zu stecken, und das Erstaunliche an 787 in einer Designplattform ist, dass sie alles neu erfunden haben das Flugzeug. Wie die Flügel zum Beispiel, wenn das Flugzeug abhebt, biegen sich die Flügel bis zu zwölfeinhalb Meter. Im Extremfall können sich die Flügel an der Spitze bis zu 25 Meter beugen. Dieses Ding sieht aus wie ein flatternder Vogel. Aber sie hatten keine Zeit, die Analyse all dieser Daten zu optimieren. Sie verfügen über Sensoren, die die LEDs grün und rot blinken lassen, wenn etwas Schlimmes passiert, aber sie haben tatsächlich keine tiefen Einblicke in Echtzeit. Und sie haben auch nicht das Problem gelöst, wie das Datenvolumen verschoben werden kann, da im nationalen Luftraum in den USA täglich 87.400 Flüge durchgeführt werden. Wenn jedes Flugzeug die Anschaffungen eines 787 Dreamliner einholt, sind das 43 Petabyte Daten pro Tag, da diese Flugzeuge derzeit jeweils etwa ein halbes Terabyte Daten erzeugen. Wenn Sie die 87.400 Flüge pro Tag in den USA mit fünf oder einem halben Terabyte multiplizieren, erhalten Sie 43, 5 Petabyte an Daten. Wir können das physisch nicht bewegen. Daher müssen wir die Analyse per Design in das Gerät übertragen.
Aber eines der Dinge, die interessant sind, wenn ich mir die gesamte Architektur anschaue - und ich bin gespannt, was Sie darüber denken -, ist, dass wir uns dem Stammdatenmanagement zugewandt haben, sozusagen den ersten Prinzipien des Datenmanagements alles in zentraler lage. Wir haben Data Lakes, und dann erstellen wir, wenn Sie möchten, kleine Datenteiche, Auszüge davon, mit denen wir Analysen durchführen, aber indem wir eines der Dinge, die immer wieder auftauchen, an den Rand verteilen, insbesondere von Datenbankmitarbeitern und Datenmanagern Was passiert, wenn ich viele kleine Miniatur-Datenseen verteilt habe? Welche Art von Dingen wurden auf dieses Denken in Bezug auf Kantenanalysen in Ihrer Lösung angewendet, indem traditionell alles zentral mit dem Datensee zusammenfiel, und jetzt landen wir überall in diesen kleinen Datenpfützen, und obwohl wir dies können Führen Sie lokale Analysen durch, um einen lokalen Einblick zu erhalten. Welche Herausforderungen haben Sie bewältigt, und wie haben Sie diesen verteilten Datensatz erhalten, und insbesondere, wenn Sie die Mikrokosmen von Datenseen und verteilten Gebieten erhalten?
Shawn Rogers: Nun, ich denke das ist eine der Herausforderungen, oder? Wissen Sie, wenn wir alle Daten an den zentralen Speicherort oder an das von mir angegebene zentrale Analysebeispiel zurückbringen und dann die verteilte Version ausführen, haben Sie am Ende all diese kleinen Silos, oder? Genau wie du es dargestellt hast, richtig? Sie machen ein bisschen Arbeit, einige Analysen laufen, aber wie bringen Sie sie wieder zusammen? Und ich denke, dass der Schlüssel die Orchestrierung all dessen sein wird, und ich denke, dass ihr mir zustimmen werdet, aber ich bin froh, wenn ihr das nicht tut, dass ich denke, dass wir diese Entwicklung ziemlich genau beobachtet haben irgendwann.
Zurück zu den Tagen unserer Freunde Mr. Inmon und Mr. Kimball, die allen bei der Architektur ihrer frühen Data-Warehouse-Investitionen geholfen haben. Der Grund dafür war, dass wir uns lange von diesem zentralisierten Modell entfernt haben. Wir haben diese neue Idee übernommen, um zu ermöglichen, dass die Daten ihre Schwerkraft dort zeigen, wo sie sich am besten in Ihrem Ökosystem befinden sollten, und um die Daten mit der bestmöglichen Plattform auszurichten, um das bestmögliche Ergebnis zu erzielen. Ich denke, wir haben damit begonnen, einen orchestrierteren Ansatz für unser Ökosystem als eine übergreifende Art, Dinge zu tun, auszugeben, da wir versuchen, all diese Teile auf einmal auszurichten. Welche Art von Analyse oder Arbeit werde ich mit den Daten machen, welche Art von Daten ist es, die helfen werden, zu bestimmen, wo sie sich befinden sollen. Wo wird es produziert und welche Schwerkraft haben die Daten?
Wissen Sie, wir sehen viele dieser Big-Data-Beispiele, bei denen über 10- und 15-Petabyte-Datenseen gesprochen wird. Wenn Sie einen so großen Datensee haben, ist es für Sie sehr unpraktisch, ihn zu verschieben, und Sie müssen in der Lage sein, Analysen in diesen See zu integrieren. Aber wenn Sie das tun, wirft dies im Kern Ihrer Frage meiner Meinung nach eine Menge neuer Herausforderungen für alle auf, die Umgebung zu orchestrieren und Governance und Sicherheit anzuwenden sowie zu verstehen, was mit diesen Daten getan werden muss, um sie zu kuratieren und zu verbessern Holen Sie den höchsten Wert daraus. Und um ehrlich zu sein - ich würde gerne Ihre Meinung hier hören -, ich denke, wir stehen am Anfang und ich denke, es gibt noch viel gute Arbeit zu leisten. Ich denke, Programme wie Statistica konzentrieren sich darauf, mehr Menschen Zugang zu Daten zu verschaffen. Wir konzentrieren uns definitiv auf diese neuen Persönlichkeiten wie Citizen Data Scientist, die Predictive Analytics an Orte innerhalb des Unternehmens lenken möchten, die es vorher vielleicht nicht gegeben hat. Ich denke, dies sind einige der Anfänge, aber ich denke, dass der Reifegrad eine hohe Ebene oder Orchestrierung und Ausrichtung zwischen diesen Plattformen aufweisen muss und ein Verständnis dafür, was auf ihnen läuft und warum. Und das ist ein uraltes Problem für uns alle.
Dez Blanchfield: In der Tat, und da stimme ich Ihnen voll und ganz zu, und ich denke, das Tolle, was wir heute hier hören, ist zumindest das vordere Ende des Problems, die Daten tatsächlich auf Gateway-Ebene am Rande zu erfassen des Netzwerks und die Fähigkeit, an diesem Punkt Analysen durchzuführen, ist im Wesentlichen jetzt gelöst. Jetzt haben wir die Möglichkeit, über die nächste Herausforderung nachzudenken, nämlich über verteilte Datenseen. Vielen Dank dafür, es war eine fantastische Präsentation. Ich freue mich sehr über die Gelegenheit, mit Ihnen darüber zu sprechen.
Ich werde jetzt zu Robin übergehen, weil ich weiß, dass er es getan hat, und dann hat Rebecca nach Robin auch eine lange Liste großartiger Fragen vom Publikum. Robin?
Dr. Robin Bloor: Okay. Shawn, ich möchte, dass du ein bisschen mehr sagst und ich versuche nicht, dir die Chance zu geben, Werbung dafür zu machen, aber es ist wirklich sehr wichtig. Ich möchte wissen, zu welchem Zeitpunkt Statistica die Modellexportfunktion tatsächlich generiert hat. Aber ich möchte auch, dass Sie etwas über Boomi sagen, denn alles, was Sie bisher über Boomi gesagt haben, ist, dass es ETL ist, und es ist in der Tat ETL. Tatsächlich ist ETL jedoch recht leistungsfähig, und für die Art von Timings, über die wir sprechen, und für einige der Situationen, die wir hier diskutieren, ist das eine sehr wichtige Sache. Könnten Sie mit diesen beiden Dingen für mich sprechen?
Shawn Rogers: Klar, ja, das kann ich absolut. Sie wissen, unsere Bewegung in diese Richtung war zweifellos iterativ und es war eine Art schrittweiser Prozess. Wir bereiten uns erst in der kommenden Woche auf die Veröffentlichung der Version 13.2 von Statistica vor. Und es enthält die neuesten Updates aller Funktionen, über die wir heute sprechen. Als wir jedoch vor einem Jahr, im Oktober, auf Version 13 zurückgingen, gaben wir bekannt, dass wir Modelle von unserer Plattform exportieren können, und wir nannten es damals NDAA. Das Akronym stand für Native Distributed Analytics Architecture. Wir haben viel Zeit, Energie und Konzentration darauf verwendet, unsere Plattform zu öffnen, um sie als zentrale Kommandozentrale für Ihre erweiterten Analysen zu nutzen, aber auch von dort aus bereitzustellen. Und als erstes, Robin, haben wir die Plattform rund um maschinelles Lernen wirklich, wirklich großartig erweitert. Aus diesem Grund konnten wir von Statistica aus die Azure Cloud von Microsoft bereitstellen, um die Leistungsfähigkeit von Azure für das maschinelle Lernen zu nutzen. Wie Sie wissen, ist dies sehr intensiv und eine hervorragende Möglichkeit, Cloud-Technologien zu nutzen. Und das war das erste bisschen.
Jetzt exportierten wir unsere Modelle nach Azure und verwendeten Azure, um sie auszuführen. Anschließend sendeten wir die Daten oder Ergebnisse zurück an die Statistica-Plattform. Und dann sind wir zu anderen Sprachen übergegangen, aus denen wir exportieren wollten, und natürlich öffnet eine davon, Java, die Tür für uns, damit wir beginnen, unsere Modelle nach außen an andere Orte wie Hadoop zu exportieren wir spielen dort auch.
Zuletzt haben wir uns darauf konzentriert, unsere Modelle mit dieser Version in Datenbanken auszugeben. Das war also die erste Iteration und um ehrlich zu sein, das Endspiel war IoT, aber wir waren mit Version 13 im letzten Oktober noch nicht ganz da. Seitdem sind wir dort angekommen und das hat mit der Fähigkeit zu tun, all die Dinge zu tun, die ich gerade erwähnte, aber dann eine Art Transportgerät zu haben. Und zurück zu Dezs Frage: Was ist die Herausforderung und wie machen wir das, wenn all diese Analysen laufen? Nun, wir verwenden Boomi als eine Art Distributions-Hub und deshalb, weil es sich in der Cloud befindet und, wie bereits erwähnt, so leistungsstark ist, ist es eine Datenintegrationsplattform, aber auch eine Anwendungsintegrationsplattform, und es verwendet JVMs, um uns dies zu ermöglichen Sie können überall dort parken und arbeiten, wo Sie eine virtuelle Java-Maschine landen können. Das hat die Tür für all diese Gateways, Edge-Computing-Plattformen und Edge-Server wirklich aufgestoßen, da alle über den Computer und die Plattform verfügen, auf der eine JVM ausgeführt werden kann. Und weil wir die JVM überall ausführen können, hat sich Boomi gewendet eine wundervolle Distribution und, nach meinem Wort aus früheren Zeiten, ein Instrument für die Orchestrierung.
Und das wird immer wichtiger, weil wir alle, wissen Sie, das Flugzeugszenario vor einer Minute war großartig, und ich erwähnte Hersteller wie Shire, die zehntausende Sensoren in einer ihrer Fabriken haben, Sie Irgendwann muss der zentrale Ansatz für Advanced Analytics angegangen werden. Ad-hoc darüber zu sein, funktioniert nicht mehr wirklich. Früher war das Volumen der von uns ausgeführten Modelle und Algorithmen minimal, jetzt ist es jedoch maximal. Es gibt Tausende von ihnen in einer Organisation. Daher ist ein Teil unserer Plattform serverbasiert. Wenn Sie über unsere Unternehmenssoftware verfügen, können Sie Ihre Modelle in der gesamten Umgebung optimieren, bewerten und verwalten. Und das ist auch Teil dieser Orchestrierungssache. Wir brauchten eine Ebene, Robin, die es Ihnen nicht nur ermöglichte, ein Modell zu erstellen, sondern Ihnen auch die Möglichkeit gab, die Modelle so oft wie nötig zu optimieren und sie fortlaufend zu ersetzen, weil Das können Sie nicht manuell tun. Sie können eine Raffinerie nicht mit einem USB-Stick umrunden, um Modelle auf Gateways hochzuladen. Dazwischen muss ein Transport- und Managementsystem sein, und die Kombination von Statistica und Boomi bietet dies unseren Kunden.
Dr. Robin Bloor: Ja. Nun, ich werde mich sehr kurz fassen, aber Sie wissen, diese Aussage, die vorhin über den Datensee und die Idee, Petabytes an einem bestimmten Ort anzusammeln, und die Tatsache, dass er Schwerkraft hat, wurde gemacht. Wissen Sie, als Sie angefangen haben, über Orchestrierung zu sprechen, habe ich gerade über die sehr einfache Tatsache nachgedacht, dass das Platzieren eines sehr großen Datensees an einer Stelle wahrscheinlich bedeutet, dass Sie ihn tatsächlich sichern müssen, und dies bedeutet wahrscheinlich auch, dass Sie müssen sowieso viele Daten verschieben. Weißt du, die reale Datenarchitektur ist meiner Meinung nach viel mehr in der Richtung, über die du sprichst. Was ist, um es an vernünftigen Orten zu verteilen, ist wahrscheinlich das, was ich sagen würde. Und es sieht so aus, als hätten Sie eine sehr gute Fähigkeit, dies zu tun. Ich bin gut über Boomi informiert, also ist es auf die eine oder andere Weise fast unfair, dass ich es sehe und das Publikum vielleicht nicht. Aber meiner Meinung nach ist Boomi so wichtig für Ihre Arbeit, da es über Anwendungsfunktionen verfügt. Und auch, weil die Wahrheit ist, dass Sie diese analytischen Berechnungen nicht durchführen, ohne irgendwo aus irgendeinem Grund etwas unternehmen zu wollen. Und Boomi spielt dabei eine Rolle, oder?
Shawn Rogers: Ja, absolut. Und wie Sie aus früheren Gesprächen wissen, ist in Statistica eine umfassende Engine für Geschäftsregeln enthalten. Und ich denke, das ist wirklich wichtig, wenn wir herausfinden, warum wir das tun. Wissen Sie, ich habe im Vorfeld gescherzt, dass es wirklich keinen Grund gibt, IoT zu betreiben, es sei denn, Sie analysieren, verwenden die Daten, um bessere Entscheidungen zu treffen oder Maßnahmen zu ergreifen. Wir haben uns also nicht nur darauf konzentriert, das Modell herauszubringen, sondern es als Regelsatz mitzuverfolgen. Und weil Boomi so robust ist, Dinge von einem Ort zum anderen zu bewegen, können wir in einem Boomi-Atom auch die Fähigkeit einbetten, auszulösen, zu alarmieren und Maßnahmen zu ergreifen.
Und so beginnen wir, eine solch ausgefeilte Ansicht von IoT-Daten zu erhalten, in der wir sagen: „Okay, diese Daten sind es wert, angehört zu werden.“ Aber wirklich, Sie wissen, dass „das Licht an ist, das Licht an ist, Das Licht ist an, das Licht ist an. “Es ist nicht so interessant, wann das Licht ausgeht oder wann der Rauchmelder ausgeht oder was auch immer mit unserem Herstellungsprozess passiert, nicht den Spezifikationen entspricht. In diesem Fall möchten wir in der Lage sein, umgehend Maßnahmen zu ergreifen. Und die Daten werden hier an dieser Stelle fast zweitrangig. Da es nicht so wichtig ist, dass wir alle diese Signale gespeichert haben: "Es ist okay, es ist okay, es ist okay". Wichtig ist, dass wir das "Hey, es ist schlecht" bemerken und sofort Maßnahmen ergreifen. Ob es sich um das Versenden einer E-Mail an eine andere Person handelt oder ob wir Fachwissen in Bezug auf die Domain einbringen können oder ob wir eine Reihe anderer Prozesse auslösen, um sofort Maßnahmen zu ergreifen, ob dies nun korrigierend ist oder als Reaktion auf die Informationen. Und ich denke, deshalb muss man diese orchestrierte Sicht darauf haben. Sie können sich nicht nur darauf konzentrieren, Ihre Algorithmen überall zu verwenden. Man muss sie koordinieren und orchestrieren können. Sie müssen in der Lage sein zu sehen, wie sie sich entwickeln. Und wirklich, am wichtigsten, ich meine, warum zum Teufel würden Sie das tun, wenn Sie nicht die Möglichkeit hinzufügen können, sofort Maßnahmen gegen die Daten zu ergreifen?
Dr. Robin Bloor: Okay, Rebecca, ich glaube, Sie haben Fragen vom Publikum?
Rebecca Jozwiak: Das tue ich. Ich habe eine Menge Fragen an das Publikum. Shawn, ich weiß, dass du nicht zu lange nach der vollen Stunde dranbleiben wolltest. Was denkst du?
Shawn Rogers: Ich bin glücklich. Gehen Sie geradeaus. Ich kann ein paar beantworten.
Rebecca Jozwiak: Mal sehen. Ich weiß, eines der Dinge, die Sie angesprochen haben, war, dass das Internet der Dinge noch in den Anfängen steckt und dass es einen gewissen Reifegrad haben wird, der stattfinden muss, und es spricht irgendwie zu dieser Frage, die ein Teilnehmer gestellt hat. Ob das IPv6-Framework robust genug ist, um das Wachstum des Internet der Dinge in den nächsten fünf oder zehn Jahren zu bewältigen?
Shawn Rogers: Oh, ich werde Dez von meiner Antwort abhalten lassen, weil ich denke, dass er näher an dieser Art von Information ist, die ich bin. Aber ich war schon immer der Meinung, dass wir auf einem sehr schnellen Weg sind, um die meisten der vorhandenen Frameworks zu biegen und zu durchbrechen. Und obwohl ich denke, dass die Hinzufügung dieser neuen Art von Spezifikation oder die Richtung, in die wir mit IPv6-Frameworks gehen, wichtig ist und es uns die Tür öffnet, viel mehr Geräte zu haben und in der Lage zu sein, alles zu geben, was wir tun möchte eine Adresse angeben. Ich denke, dass alles, was ich mit meinen Kunden lese und sehe, und die Anzahl der erforderlichen Adressen irgendwann eine weitere Veränderung in dieser Landschaft bewirken werden. Aber ich bin kein wirklicher Netzwerkexperte, daher kann ich nicht hundertprozentig sagen, dass wir es irgendwann brechen werden. Aber meine Erfahrung zeigt mir, dass wir dieses Modell irgendwann stören werden.
Rebecca Jozwiak: Ich wäre nicht überrascht. Ich denke, Frameworks brechen unter der Last aller möglichen Dinge. Und das ist nur logisch, oder? Ich meine, Sie können keine E-Mail mit einer Schreibmaschine senden. Ein anderer Teilnehmer fragt: "Können Sie ein Hadoop-Framework verwenden?", Aber ich schätze, ich könnte das ändern, um zu sagen, wie würden Sie ein Hadoop-Framework für verteilte Analysen verwenden?
Shawn Rogers: Nun, Robin hat mir den Gefallen getan, mir eine historische Frage zu stellen. Seit Version 13 von Statistica vor etwa einem Jahr konnten wir Modelle aus unserem System in Hadoop verschieben. Und wir arbeiten sehr eng mit allen großen Aromen von Hadoop zusammen. Wir haben wirklich großartige Erfolgsgeschichten über die Fähigkeit, mit Cloudera als einer der Hauptdistributionen von Hadoop zusammenzuarbeiten, mit denen wir zusammenarbeiten. Da wir jedoch in Java ausgeben können, haben wir die Möglichkeit, offen zu sein und unsere Analysen an einem beliebigen Ort zu platzieren. Sie in einem Hadoop-Cluster zu platzieren, ist für viele unserer Kunden eine normale, regelmäßige und alltägliche Aufgabe. Die kurze Antwort lautet ja, absolut.
Rebecca Jozwiak: Ausgezeichnet. Und ich werde nur noch einen rausschmeißen und dich mit deinem Urlaub weitermachen lassen. Ein anderer Teilnehmer fragt Sie, ob mit IoT-Analytik und maschinellem Lernen alle Daten für historische Zwecke gespeichert werden müssen und wie sich dies auf die Lösungsarchitektur auswirkt.
Shawn Rogers: Nun, ich denke nicht, dass alle Daten gespeichert werden müssen. Ich halte es jedoch für sehr interessant, jede Datenquelle, die wir in unserer Organisation benötigen, unterhalten und abhören zu können, wo immer sie herkommt. Und ich denke, die Veränderungen, die wir in den letzten Jahren auf dem Markt erlebt haben, haben es uns ermöglicht, diesen All-Data-Ansatz anzuwenden, und es scheint sich wirklich auszuzahlen. Aber es wird für jedes Unternehmen und jeden Anwendungsfall anders sein. Wissen Sie, wenn wir uns Gesundheitsdaten ansehen, gibt es jetzt eine Menge regulatorischer Probleme, eine Menge Compliance-Probleme, die uns dazu bringen, Daten zu speichern, die andere Unternehmen möglicherweise nicht verstehen, warum sie gespeichert werden müssen, richtig ? In den Fertigungsprozessen besteht für viele unserer Fertigungskunden ein echter Vorteil darin, Ihre Prozesse in der Vergangenheit untersuchen und auf große Mengen dieser Daten zurückgreifen zu können, um daraus zu lernen und bessere Modelle daraus zu erstellen.
Ich denke, dass viele Daten aufbewahrt werden müssen, und ich denke, wir haben Lösungen, die dies heute wirtschaftlicher und skalierbarer machen. Gleichzeitig denke ich, dass jedes Unternehmen einen Wert in Daten findet, den es nicht auf atomarer Ebene halten muss, sondern in Echtzeit analysieren und Entscheidungen treffen möchte, um Innovationen voranzutreiben ihre Firma.
Rebecca Jozwiak: Okay, gut. Nein, Publikum, ich habe heute nicht alle Fragen beantwortet, aber ich werde sie an Shawn weiterleiten, damit er Sie direkt erreichen und diese Fragen beantworten kann. Aber ich danke Ihnen allen für Ihre Teilnahme. Vielen Dank an Shawn Rogers von Dell Statistica und an all unsere Analysten, Dez Blanchfield und Dr. Robin Bloor. Sie finden das Archiv hier auf insideanalysis.com, SlideShare. Wir haben begonnen, unsere Inhalte wieder dort abzulegen, und wir überarbeiten gerade unser YouTube. Suchen Sie auch dort danach. Vielen Dank Leute. Und damit verabschiede ich mich und wir sehen uns beim nächsten Mal.