Von Techopedia Staff, 25. Januar 2017
Imbiss: Gastgeber Eric Kavanagh spricht mit den Gästen Dr. Robin Bloor, Dez Blanchfield und Bill Ellis von IDERA über In-Memory-Computing und SAP HANA.
Du bist derzeit nicht angemeldet. Bitte melde dich an oder registriere dich, um das Video zu sehen.
Eric Kavanagh: Okay, meine Damen und Herren. Hallo und herzlich willkommen zurück. Es ist vier Uhr Ostzeit an einem Mittwoch und in den letzten paar Jahren ist es wieder Zeit für Hot Technologies. Ja, in der Tat, mein Name ist Eric Kavanagh, ich werde Ihr Gastgeber für das heutige Gespräch sein.
Und Leute, wir werden heute über ein paar coole Sachen reden. Wir werden in die Welt des In-Memory eintauchen. Der genaue Titel lautet „Into the Future: Eine Rampe für In-Memory-Computing“. Der Speicher ist so viel schneller als die Verwendung von rotierenden Festplatten. Die Herausforderung besteht jedoch darin, dass Sie eine Menge Software neu schreiben müssen. Weil die Software von heute größtenteils mit Blick auf die Festplatte geschrieben wurde und dies die Architektur der Anwendung wirklich verändert. Wenn Sie die Anwendung so entwickeln, dass sie auf eine sich drehende Festplatte wartet, verhalten Sie sich einfach anders als bei einer In-Memory-Technologie, die über all diese Fähigkeiten verfügt.
Es gibt einen Punkt über Ihren, schlagen Sie mich auf Twitter, @eric_kavanagh. Ich versuche immer, zurück zu folgen und zu twittern, wenn jemand mich erwähnt.
Wie gesagt, wir sprechen heute über In-Memory und speziell über SAP HANA. Ihr habt das letzte Jahr wirklich damit verbracht, die SAP-Community wirklich gut kennenzulernen, und es ist ein faszinierendes Umfeld, muss ich sagen. Hut ab vor den Leuten, die diese Operation ausführen und an vorderster Front stehen, denn SAP ist eine unglaublich gute Operation. Sie sind wirklich sehr gut darin, Geschäfte zu machen. Natürlich können sie auch hervorragend mit Technologie umgehen, und sie haben wirklich viel in HANA investiert. Tatsächlich kann ich mich erinnern - es war wahrscheinlich vor sechs oder sieben Jahren -, dass wir tatsächlich einige Arbeiten für die US Air Force erledigten, und wir haben jemanden von SAP, der hereinkam und uns einen frühen Einblick in die Welt von gab HANA und was geplant war. Um es gelinde auszudrücken: Die Mitarbeiter der SAP Labs hatten viel Zeit und Mühe investiert, um zu verstehen, wie diese Architektur aufgebaut werden kann, die sich wiederum von herkömmlichen Umgebungen völlig unterscheidet, da Sie alles im Gedächtnis haben. Es geht also darum, sowohl Transaktions- als auch Analysevorgänge für dieselben Daten im Arbeitsspeicher durchzuführen, im Gegensatz zu der herkömmlichen Methode, bei der die Daten herausgezogen, in einen Würfel gelegt und beispielsweise dort analysiert werden geschieht auf eine ganz andere Weise.
Dies ist ein interessanter Bereich, und wir werden von einem anderen Anbieter, IDERA, herausfinden, wie das ganze Zeug funktionieren wird und worum es auf der Rampe eigentlich geht. Wir werden also von Dr. Robin Bloor hören, unserem Chefanalysten hier bei The Bloor Group. Dez Blanchfield, unser Datenwissenschaftler und dann guter Freund Bill Ellis von IDERA. Also, damit werde ich die Schlüssel Dr. Robin Bloor übergeben, der sie wegnehmen wird.
Dr. Robin Bloor: Ja, wie Eric sagte, war die Zeit, die wir zum ersten Mal von SAP HANA erfahren haben, nun schon viele Jahre zurück. Aber es war sehr interessant, diese besondere Zeit war sehr interessant. Wir sind auf ein oder zwei Unternehmen gestoßen, die auf die eine oder andere Weise In-Memory-Technologie anboten. Es war ziemlich klar, dass In-Memory kommen würde. Und es dauerte wirklich nicht, bis SAP aufstand und plötzlich HANA startete. Ich meine, es war ein Schock, als ich sah, dass SAP das tat. Es war wie ein Schock, weil ich erwartet hatte, dass es von woanders herkommt. Ich habe erwartet, dass es Microsoft, Oracle, IBM oder so jemand sein wird. Die Idee, dass SAP dies tat, war für mich wirklich sehr überraschend. Ich nehme an, es hätte nicht sein sollen, weil SAP einer der strategischen Anbieter ist und alles, was in der Branche passiert, kommt von einem dieser Anbieter.
Wie auch immer, der ganze Punkt über In-Memory, ich meine, wir haben gemerkt, dass wir immer darüber gesprochen haben, dass es nicht darum geht, Daten in den Speicher zu legen, sondern darum, sich auf die zu verpflichten Die Idee, dass die Speicherschicht der Systemdatensatz ist - sobald Sie den Systemdatensatz in den Speicher migrieren, wird die Festplatte zu einem Übergabemedium einer Art und es wird eine andere Sache. Und ich fand das sehr aufregend, als das passierte. Also, wirklich, es ist vorbei, um die Festplatte zu drehen. Drehscheibe wird es demnächst nur noch in Museen geben. Ich bin mir nicht sicher, wie bald das sein wird, aber im Grunde genommen befindet sich die Solid-State-Disk jetzt auf der Law-Kurve von Moore. Sie ist bereits zehnmal schneller als Rost, wie sie es jetzt nennen, und wird ziemlich bald immer noch schneller sein Das bedeutet dann, dass Anwendungsfälle für Festplatten immer weniger werden.
Und die merkwürdige Tatsache, traditionelles DBMS, tatsächlich wurde eine Menge traditioneller Software für das Drehen von Festplatten entwickelt, es wurde angenommen, dass sich Festplatten drehen. Es verfügte über alle möglichen Funktionen auf physischer Ebene, die sorgfältig programmiert wurden, um die sich drehende Festplatte auszunutzen und den Datenabruf so schnell wie möglich zu gestalten. Und das alles wird weggespült. Verschwinde einfach, weißt du? Und dann gab es offensichtlich eine sehr - ich weiß nicht, lukrative, ich nehme an, es wird am Ende sein - Öffnung für eine In-Memory-Datenbank, die versuchte, die Position der großen Datenbanken zu besetzen, Oracle und Microsoft, SQL Server und IBMs DB2 nahmen den Speicherplatz ein, und es war sehr interessant zu beobachten, wie sie vorwärts marschierten und dies taten.
Sprechen wir über die Gedächtniskaskade. es ist nur erwähnenswert. Es ist auch der Grund, dies zu erwähnen, der Grund, warum ich es wirklich hineingeworfen habe, war, dass jeder weiß, wenn ich hier von Erinnerung spreche, dass all diese Schichten, über die ich spreche, tatsächlich Erinnerung sind. Aber Sie erkennen plötzlich, wenn Sie dies betrachten, dies ist ein hierarchischer Speicher, es ist nicht nur Erinnerung. Und deshalb gilt so ziemlich alles, was wir vor langer, langer Zeit über hierarchische Speicher gelernt haben. Und es bedeutet auch, dass jede speicherinterne Datenbank durch diese navigieren muss, einige gehen einfach im RAM selbst hindurch, wissen Sie. Und es wurde immer größer und größer und es wird jetzt in Megabyte gemessen. Sie haben jedoch einen L1-Cache, der hundertmal schneller ist als der Arbeitsspeicher, einen L2-Cache, der 30-mal schneller ist als der Arbeitsspeicher und einen L3-Cache, der etwa zehnmal schneller ist als der Arbeitsspeicher. Wissen Sie, es gibt eine Menge Technologie - also eine ganze Menge Technologie -, die die Strategie verfolgt, diese Caches als eine Art Speicherplatz für die Ausführung von Dingen zu verwenden, insbesondere für die Datenbanktechnologie. Wissen Sie, das ist ein Einfluss.
Dann tauchen 3D XPoint und IBMs PCM auf. Und es ist fast RAM-Geschwindigkeit, ist im Grunde, was diese beiden Anbieter rühmen. Die Anwendungsfälle sind wahrscheinlich unterschiedlich. Das frühe Experimentieren damit ist noch nicht abgeschlossen. Wir wissen nicht, wie sich dies auf die Verwendung des Arbeitsspeichers und die Technologie der In-Memory-Datenbank auswirken wird. Sie haben dann RAM gegen SSD. Derzeit ist der Arbeitsspeicher etwa 300-mal schneller, aber das Vielfache nimmt natürlich ab. Und SSD im Vergleich zu Festplatte, die etwa 10-mal schneller ist, wenn ich es verstehe. Das ist also die Art von Situation, die Sie haben. Es ist ein hierarchischer Speicher. Wenn man es anders betrachtet, ist In-Memory natürlich völlig anders. Das obere Diagramm zeigt also zwei Anwendungen, von denen beide möglicherweise auf eine Datenbank zugreifen, aber auf jeden Fall auf Daten zum Thema Rost. Und die Art und Weise, wie Sie die Dinge tatsächlich durch das Netzwerk fließen lassen, ist, je nachdem, welche Abhängigkeiten es gibt, ETL. Das bedeutet also, dass Daten auf rotierenden Rost wandern und sich dann von rotierendem Rost lösen, um irgendwohin zu gelangen, und dass sie auf rotierenden Rost zurückwandern, was drei Bewegungen entspricht. Denken Sie daran, dass der Speicher hunderttausendmal schneller sein kann als das Drehen der Festplatte, und Sie werden sicher feststellen, dass das Aufnehmen und Speichern von Daten das Ganze ganz anders macht.
Sie hätten also gedacht, was auf dem Bildschirm hier passieren würde, und Sie hätten gedacht, dass die ETL in der Tat auf die eine oder andere Weise nur von Daten zu Daten im Speicher wechselt. Aber in Wirklichkeit könnte es das nicht tun; Tatsächlich haben Sie hier möglicherweise die Situation, in der zwei Anwendungen tatsächlich denselben Speicher auslösen können. Eine speicherinterne Datenbank könnte Ihnen diese Möglichkeit bieten, solange Sie die Sperre haben und alles andere darauf abgestimmt ist. Dies ändert also nicht nur die Geschwindigkeit der Dinge, sondern auch die tatsächliche Konfiguration der Anwendungen und des gesamten Datenflusses.
Es ist also eine enorme Auswirkung. In-Memory ist also störend, oder? Und wir sollten das von dem bekommen, was ich gesagt habe. Die In-Memory-Verarbeitung ist derzeit ein Beschleuniger, wird jedoch zur Norm. Es wird je nach Anwendungswert verwendet, und es ist daher sehr, sehr interessant, dass SAP tatsächlich eine Version seiner ERP-Software herausbringt, die sich im Arbeitsspeicher befindet. Und Latenzverbesserungen bis zu drei Größenordnungen sind durchaus möglich, und tatsächlich ist sogar noch mehr möglich, je nachdem, wie Sie es tun. Sie erzielen also enorme Geschwindigkeitsverbesserungen, wenn Sie in den Speicher gehen. Und das Ergebnis, SAP HANA's S / 4 - das sie veröffentlicht haben, glaube ich, die Leute sagen, es wird immer noch veröffentlicht, aber es wurde definitiv letztes Jahr veröffentlicht - es ist ein Game Changer angesichts des SAP-Kundenstamms. Ich meine, es gibt 10.000 Unternehmen, die das ERP von SAP einsetzen, und fast alle von ihnen sind große Unternehmen, wissen Sie. Die Idee, dass sie alle einen Anreiz haben, in den Speicher zu wechseln und ihre grundlegenden Funktionen zu nutzen, ist sehr interessant, da ERP fast immer die grundlegenden Anwendungen der Unternehmen darstellt. Das hört sich natürlich alles sehr gut an, aber es muss intelligent konfiguriert und gut überwacht werden. Es ist nicht so einfach, wie es sich anhört.
Nachdem ich das gesagt habe, denke ich, gebe ich den Ball weiter an, wer ist dieser Typ? Oh, Australier, Dez Blanchfield.
Dez Blanchfield: Sehr lustig. Es ist immer eine schwierige Aufgabe, Dr. Robin Bloor zu folgen. Danke, dass Sie mich heute haben. Also, großes Thema, aber aufregendes. Daher habe ich ein Bild ausgewählt, das mir oft in den Sinn kommt, wenn ich an die modernen Data Lake- und Enterprise Data Warehouses sowie meine kleinen Datenschätze denke. Hier habe ich also einen wunderschönen See, der von Bergen und Wellen umgeben ist, und die Wellen krachen über diese Felsen. So stelle ich mir mental vor, wie es heutzutage in einem großen Datensee aussieht. Die Wellen sind Batch-Jobs, und Echtzeitanalysen werden auf Daten geworfen, sind die Felsen. Und wenn ich es als einen physischen See betrachte, bringt es mich auf eine Art Weckruf zurück, der die Größe der Data Warehouses, die wir jetzt bauen, den Grund, warum wir auf diese Münzprägung gekommen sind, und die Laufzeit von Ein Data Lake ist, dass sie sehr groß und sehr tief sind und gelegentlich Stürme auftreten können. Und wenn wir das tun, müssen Sie immer klären, was den Sturm verursacht.
Im Thema dieser Sache scheint es mir, dass dieser Sirenenruf des In-Memory-Computing in der Tat sehr stark und aus gutem Grund ist. Es bringt so viele bedeutende kommerzielle und technische Gewinne mit sich. Das ist eine Diskussion für ein paar Stunden an einem anderen Tag. Aber die allgemeine Verlagerung auf In-Memory-Computing, zuerst möchte ich nur erläutern, wie wir hierher gekommen sind und was dies möglich macht, da es sozusagen die Grundlage dafür bildet, wo einige der Herausforderungen zuerst liegen können und was wir erkennen müssen In unserer Welt, in der wir uns von der traditionellen, sich drehenden Festplatte, auf der Daten gespeichert sind, und von der Festplatte und von der Festplatte in den Arbeitsspeicher, nicht mehr in den Arbeitsspeicher und in die CPUs verlagert haben, entfernen wir bisher nur fast eine dieser ganzen Schichten. die sich drehende Scheibe sein. Denken Sie daran, dass wir uns in den Anfängen des Computerbetriebs architektonisch lange nicht vom Mainframe oder der Midrange-Welt entfernt haben, die wir ursprünglich als Kernspeicher und Trommelspeicher dachten.
Wie Dr. Robin Bloor sagte, änderte sich die Herangehensweise, mit der wir Daten durch die Computerarchitektur bewegten, für einige Zeit, für ein paar Jahrzehnte, nicht wirklich dramatisch. Wenn Sie über die Tatsache nachdenken, dass es das moderne Rechnen technisch schon gibt, wenn Sie das Wortspiel verzeihen, wissen Sie, über 60 Jahre, sechs Jahrzehnte und mehr und das in dem Sinne, in dem Sie es können kaufe sozusagen eine Schachtel von der Stange. Die Umstellung auf neue Architektur kam mir wirklich in den Sinn, als wir uns vom Denken um Mainframes und Midrange sowie Core-Speicher- und Drum-Storage-Architekturen zu mutigen oder Supercomputern, insbesondere zu Seymour Cray, verlagerten, wo es um Crossbar-Backplanes ging wurde eine Sache. Anstatt nur eine einzige Route zum Verschieben von Daten über die Rückwandplatine oder das Motherboard zu haben, wie es heutzutage heißt. Und Inline-Speicher, wissen Sie, heutzutage denken die Leute nicht wirklich darüber nach, was es eigentlich bedeutet, wenn sie DIMM und SIMM sagen. Aber SIMM ist ein Single-Inline-Speicher und DIMM ist ein Dual-Inline-Speicher, und wir sind komplexer geworden, und es gibt Dutzende verschiedener Speichertypen für verschiedene Dinge: einige für Video, einige nur für allgemeine Anwendungen, einige in CPUs integriert.
Es gab also eine große Verschiebung hin zu einer neuen Art und Weise, auf die Daten gespeichert und zugegriffen wurden. Wir werden den gleichen Wandel in einer anderen ganzen Generation durchlaufen, aber nicht so sehr in der Hardware selbst, sondern in der Übernahme der Hardware in die Geschäftslogik und in die Datenlogikebene, und es ist ein weiterer großer Paradigmenwechsel in meinem Kopf .
Aber nur kurz, wie wir hierher gekommen sind. Ich meine, die Hardware-Technologie hat sich verbessert und dramatisch verbessert. Wir haben uns von CPUs verabschiedet und die Idee eines Kerns war ein ziemlich modernes Konzept. Wir gehen davon aus, dass unsere Telefone zwei oder vier Kerne haben und unsere Computer zwei oder vier oder sogar acht Kerne auf dem Desktop und acht und zwölf und mehr auf den 16 und 32 sogar auf der Serverplattform . Aber es ist eigentlich eine ziemlich moderne Sache, dass Kerne zu einer Funktion innerhalb von CPUs wurden und wir von 32-Bit auf 64-Bit umgestiegen sind. Ein paar große Dinge sind dort passiert: Wir haben höhere Taktraten für mehrere Kerne, sodass wir Dinge parallel ausführen können und jeder dieser Kerne mehrere Threads ausführen kann. Plötzlich konnten wir viele Dinge gleichzeitig mit denselben Daten ausführen. 64-Bit-Adressabstände haben uns bis zu zwei Terabyte RAM gegeben, was ein phänomenales Konzept ist, aber jetzt ist es eine Sache. Bei diesen Multipath-Backplane-Architekturen, Motherboards, konnte man früher nur in eine Richtung vor- und zurückarbeiten. Und wie in den Tagen mit dem Cray-Computing und einigen der Supercomputer der damaligen Zeit, und jetzt in Desktop-Computern und handelsüblichen Desktop-PCs für den Rack-Einbau, weil wirklich die meisten modernen PCs durchliefen nun diese Ära von Mainframe-, Midrange- und Micro-Desktops, und wir haben sie wieder zu Servern gemacht.
Ein Großteil dieser Supercomputer-Fähigkeit, dieses Supercomputer-Designs, wurde in handelsübliche Komponenten integriert. Sie kennen heutzutage die Idee, sehr billige Rack-PCs zu nehmen und sie zu Hunderten, wenn nicht zu Tausenden in Racks zu stecken und Open-Source-Software wie Linux darauf auszuführen und SAP HANA darauf zu implementieren Wissen Sie, wir halten das oft für selbstverständlich. Aber das ist eine ganz neue aufregende Sache, die mit ihrer Komplexität einhergeht.
Die Software wurde ebenfalls verbessert, insbesondere die Speicherverwaltung und die Datenpartitionierung. Ich werde nicht auf viele Details eingehen, aber wenn Sie sich die große Verschiebung in den letzten 15 oder noch weniger Jahren ansehen, wie der Speicher verwaltet wird, insbesondere die Daten im RAM und wie die Daten im RAM partitioniert werden. Wie Dr. Robin Bloor bereits angedeutet oder angedeutet hat, können Dinge gleichzeitig lesen und schreiben, ohne sich gegenseitig zu beeinflussen, anstatt Wartezeiten zu haben. Viele sehr leistungsstarke Funktionen wie Komprimierung und Verschlüsselung auf dem Chip. Verschlüsselung wird immer wichtiger, und das müssen wir nicht unbedingt in der Software, im RAM, im CPU-Speicher tun, jetzt, wo es nativ auf dem Chip geschieht. Das beschleunigt die Dinge dramatisch. Und die verteilte Speicherung und Verarbeitung von Daten, von denen wir früher angenommen hatten, dass sie Supercomputer und Parallelverarbeitung waren, ist heute für SAP HANA, Hadoop und Spark usw. selbstverständlich.
Der springende Punkt dabei ist also, dass dieses Hochleistungs-Computing HPC-Funktionen für das Unternehmen bietet. Jetzt profitiert das Unternehmen von den Vorteilen, die sich aus Leistungssteigerungen und technologischem Raum sowie technischen Vorteilen und wirtschaftlichen Vorteilen ergeben, denn Sie wissen, Die verkürzte Restlaufzeit wird drastisch gesenkt.
Aber ich benutze das Bild einer Geschichte, die ich vor einiger Zeit von einem Gentleman gelesen habe, der ein PC-Gehäuse aus Lego gebaut hat, weil mir immer einfällt, wenn ich über einige dieser Dinge nachdenke. Und das ist, es scheint eine großartige Idee zu sein, wenn man mit dem Bau beginnt, und dann ist man auf halbem Weg und merkt, dass es wirklich schwierig ist, alle Lego-Teile zusammenzufügen und eine solide Sache zu machen, solide genug Wenn Sie ein Motherboard usw. einbauen, entsteht ein Gehäuse für einen Personal Computer. Und irgendwann merkt man, dass all die kleinen Teile nicht richtig zusammenhalten und man muss ein bisschen vorsichtig sein, welche kleinen Teile man zusammenhält, um es solide zu machen. Und es ist eine sehr nette Idee, aber es ist ein Weckruf, wenn Sie auf halbem Weg sind und feststellen: "Hmm, vielleicht hätte ich nur ein 300-Dollar-PC-Gehäuse kaufen sollen, aber ich werde es jetzt beenden und etwas daraus lernen."
Für mich ist das eine großartige Analogie für den Aufbau dieser sehr komplexen Plattformen, denn es ist alles in Ordnung und gut, sie aufzubauen und am Ende eine Umgebung zu schaffen, in der es Router und Switches sowie Server und Racks gibt. Und Sie haben CPUs und RAM und Betriebssystem zusammen geclustert. Und für die verteilte In-Memory-Verarbeitung, die Datenspeicherung und das Datenmanagement legen Sie so etwas wie HANA drauf. Darüber hinaus bauen Sie den SAP-Stack auf, erhalten die Datenbankfunktionen, laden Ihre Daten und Ihre Geschäftslogik und wenden einige Lese- und Schreibvorgänge, Abfragen usw. an. Sie müssen den Überblick über I / O behalten und Dinge planen und Workloads und Mandantenfähigkeit verwalten und so weiter. Dieser Stapel wird sehr schnell sehr komplex. Das ist ein komplexer Stapel für sich, wenn er nur auf einer Maschine liegt. Multiplizieren Sie das mit 16 oder 32 Maschinen, es wird sehr, sehr nicht trivial. Wenn Sie bis zu Hunderte und schließlich Tausende von Maschinen multiplizieren, um von 100 Terabyte auf Petabyte zu kommen, ist das ein erschreckendes Konzept, und mit diesen Realitäten beschäftigen wir uns jetzt.
Dann haben Sie ein paar Dinge, die auch dazu beigetragen haben, diese Welt zu verändern, und das heißt, der Speicherplatz wurde lächerlich billig. Weißt du, früher hattest du 380 bis 400.000 Dollar für ein Gigabyte Festplatte ausgegeben, als es eine riesige Trommel von der Größe einer war - etwas, das einen Gabelstapler brauchte, um es aufzunehmen. Heutzutage sind es ein oder zwei Cent pro Gigabyte Commodity-Speicherplatz. Und RAM tat dasselbe. Diese beiden J-Kurven in beiden Diagrammen sind im Übrigen jeweils ein Jahrzehnt, mit anderen Worten, wir betrachten zwei Blöcke von 10 Jahren, 20 Jahren Preissenkung. Aber ich habe sie in zwei J-Kurven aufgeteilt, weil die eine auf der rechten Seite schließlich zu einer gepunkteten Linie wurde und man das Detail von nicht sehen konnte, also habe ich sie neu skaliert. Ein Gigabyte RAM vor 20 Jahren lag in der Größenordnung von sechseinhalb Millionen Dollar. Heutzutage werden Sie ausgeraubt, wenn Sie mehr als drei oder vier Dollar für ein Gigabyte RAM für Standardhardware bezahlen.
Diese deutlichen Preissenkungen in den letzten zwei Jahrzehnten haben dazu geführt, dass wir jetzt nicht nur auf Megabyte-Ebene, sondern auch auf Terabyte-Ebene über den Festplattenspeicher hinaus direkt in den Arbeitsspeicher wechseln und den Arbeitsspeicher wie eine Festplatte behandeln können. Die Herausforderung dabei war jedoch, dass der Arbeitsspeicher von Natur aus vergänglich war - das bedeutet, dass er nur für kurze Zeit gültig ist - und wir mussten uns daher Möglichkeiten einfallen lassen, um diesen Bereich zu stabilisieren.
Mein Punkt hier ist, dass In-Memory-Computing nichts für schwache Nerven ist. Das Jonglieren dieser sehr umfangreichen In-Memory-Daten und der Verarbeitung ist eine interessante Herausforderung. Wie ich bereits angedeutet habe, ist es nichts für schwache Nerven. Aus dieser Erfahrung mit In-Memory-Computing in großem Maßstab und hoher Dichte haben wir gelernt, dass die Komplexität, die wir aufbauen, in einer Reihe von Bereichen ein Risiko birgt.
Betrachten wir es jedoch nur unter dem Gesichtspunkt der Überwachung und Reaktion. Wenn wir an die Daten denken, beginnen sie auf der Festplatte, befinden sich in Datenbanken auf den Festplatten und werden in den Arbeitsspeicher verschoben. Sobald es im Speicher vorhanden und verteilt ist und Kopien davon vorhanden sind, können wir viele Kopien davon verwenden. Wenn Änderungen vorgenommen werden, kann dies auf Speicherebene widergespiegelt werden, anstatt auf der Rückwandplatine unter ein- und ausgeschaltet zu werden Auf zwei verschiedenen Ebenen geht es in und aus dem Gedächtnis. Am Ende haben wir diese Hyperscale-Hardwareplattform, mit der wir dies jetzt tun können. Wenn wir über Hyperskalierung sprechen, ist es schwieriger, auf unglaublich dichten Ebenen und mit sehr hoher Speicherdichte, sehr hoher CPU-Dichte sowie Kernen und Threads. Wir haben jetzt sehr komplexe Netzwerkpathologien, um dies zu unterstützen, da die Daten irgendwann über das Netzwerk übertragen werden müssen, wenn sie zwischen Knoten und Clustern übertragen werden sollen.
Daher wird die Redundanz von Gerätefehlern zum Problem, und wir müssen Geräte und Teile davon überwachen. In diese Plattform muss eine ausfallsichere Datenfehlerredundanz integriert sein, die überwacht werden muss. Wir müssen die verteilte Ausfallsicherheit der Datenbank einbauen, damit wir die Datenbankplattform überwachen und darin stapeln können. Wir müssen die verteilte Verarbeitungsplanung überwachen, die Vorgänge in einigen Prozessen bis hin zu Abfragen und Abfragen sowie den Pfad der Abfrage und die Art und Weise, wie die Abfrage strukturiert und ausgeführt wird. Wie sieht es aus, hat jemand ein SELECT * für "blah" durchgeführt oder hat er tatsächlich eine sehr intelligente und gut strukturierte Abfrage durchgeführt, die ihm die nominelle Mindestmenge an Daten liefert, die über die Architektur in der Rückwandplatine kommen? Wir haben Workloads mit mehreren Mandanten, mehrere Benutzer und mehrere Gruppen, die dieselben oder mehrere Workloads und Batch-Jobs ausführen, sowie eine Echtzeitplanung. Und wir haben diese Mischung aus Stapelverarbeitung und Echtzeitverarbeitung. Manche Dinge laufen nur regelmäßig - stündlich, täglich, wöchentlich oder monatlich - andere Dinge sind auf Anfrage. Vielleicht sitzt jemand mit einem Tablet da und möchte einen Echtzeitbericht erstellen.
Und wieder kommen wir zu dem ganzen Punkt, dass die Komplexität, die in diesen entsteht, nicht nur eine Herausforderung ist, sondern auch ziemlich beängstigend. Und wir haben diese Realitätsprüfung, dass ein einzelnes Leistungsproblem, nur ein Leistungsproblem für sich, das gesamte Ökosystem beeinflussen kann. Am Ende haben wir also die lustige Herausforderung, herauszufinden, wo die Auswirkungen liegen. Und wir haben diese Herausforderung: Sind wir reaktiv oder proaktiv? Beobachten wir die Sache in Echtzeit und sehen, wie etwas „knallt“ und darauf reagiert? Oder haben wir irgendeine Form von Trend gesehen und festgestellt, dass wir uns proaktiv darauf einlassen müssen? Denn der Schlüssel ist, dass jeder etwas schnell und billig und einfach haben möchte. Aber am Ende haben wir diese Szenarien, auf die ich mich gerne beziehe, und meine Lieblingszeile des Donald-Rumsfeld-Rätsels - das gilt in meinen Augen für all diese Szenarien von hoher Komplexität - und das ist, dass wir Bekannte gekannt haben, weil das etwas ist wir haben entworfen und gebaut und es läuft wie geplant. Wir kennen Unbekanntes, weil wir nicht wissen, wer was wann und wo ausführt, wenn es benötigt wird. Und wir haben unbekannte Unbekannte und das sind die Dinge, die wir überwachen und überprüfen müssen. Wir alle wissen, dass Sie in der Realität nicht mit etwas fertig werden können, das Sie nicht messen können.
Um also die richtigen Tools und die richtigen Funktionen zur Überwachung unserer CPU-Planung zu haben, suchen Sie nach Wartezeiten und finden Sie heraus, warum in Pipeline-Warteschlangen die Dinge warten müssen. Was passiert im Speicher, welche Art von Nutzung wird ausgeführt, welche Art von Leistung geht aus dem Speicher hervor? Sind die Teile richtig partitioniert, werden sie verteilt? Haben wir genug Knoten, die Kopien davon enthalten, um mit den Workloads fertig zu werden, die auf sie geworfen werden? Was passiert mit der Prozessausführung außerhalb der Betriebssystemprozesse? Die Jobs selbst, die einzelnen Apps und die sie unterstützenden Daemons? Was passiert in diesen Prozessen, insbesondere bei der Strukturierung von Abfragen, und wie werden diese Abfragen ausgeführt und kompiliert? Und die Gesundheit dieser Prozesse auf ganzer Linie? Sie wissen wieder, zurück zu den Wartezeiten, ist die Planung korrekt, muss sie warten, wo wartet sie, wartet sie auf Speicherlesevorgänge, E / As, die CPU, E / A über das Netzwerk an den Endbenutzer? ?
Und dann zurück zu dem Punkt, den ich gerade kurz vor meinem Abschluss erwähnt habe, und das ist, wie nähern wir uns dieser Problemlösung und den Reaktionszeiten? Beobachten wir in Echtzeit und reagieren auf Dinge, was das am wenigsten ideale Szenario ist, aber selbst dann ist es besser, wenn wir das tun als nicht wissen und den Helpdesk anrufen und sagen, dass etwas schief gelaufen ist und wir es aufspüren müssen ? Oder machen wir es proaktiv und schauen wir uns an, was auf dem Spiel steht? Mit anderen Worten, sehen wir, dass uns der Speicher ausgeht und wir mehr Knoten hinzufügen müssen? Machen wir eine Trendanalyse, machen wir eine Kapazitätsplanung? Überwachen wir dabei die historischen Ausführungszeiten und denken über eine Kapazitätsplanung nach oder beobachten wir diese in Echtzeit und planen proaktiv um und führen einen Lastausgleich durch? Und sind wir uns der Workloads bewusst, die überhaupt ausgeführt werden? Wissen wir, wer was in unserem Cluster macht und warum?
In-Memory-Berechnungen sind sehr leistungsfähig, aber mit dieser Leistung ist es fast so etwas wie eine geladene Waffe und Sie spielen mit Live-Munition. Sie können sich schließlich in den Fuß schießen, wenn Sie nicht vorsichtig sind. Diese Leistung der In-Memory-Berechnung bedeutet also nur, dass wir sehr viel mehr und schnell über sehr verteilte und diskrete Datensätze laufen können. Das hat dann aber eine höhere Nachfrage seitens der Endverbraucher zur Folge. Sie gewöhnen sich an diese Kraft und wollen sie. Sie rechnen nicht mehr damit, dass Aufträge erst nach Wochen ausgeführt werden und Berichte in normalem Altpapier erscheinen. Und unter all dem haben wir die tägliche Wartung, die sich auf Patches, Updates und Upgrades konzentriert. Wenn Sie die Verarbeitung rund um die Uhr mit In-Memory-Computing, die Verwaltung dieser Daten und die Verwaltung der Workloads im gesamten Arbeitsspeicher in Betracht ziehen, ist dies, technisch gesehen, eine kurzlebige Sache, wenn wir mit der Installation von Patches, Updates und Upgrades beginnen Das bringt auch eine ganze Reihe anderer Management- und Überwachungsherausforderungen mit sich. Wir müssen wissen, was wir offline schalten können, wann wir es aktualisieren und wann wir es wieder online schalten können. Und das bringt mich zu meinem letzten Punkt, und das heißt, mit zunehmender Komplexität dieser Systeme kann ein Mensch nicht mehr nur mit dem Daumen lutschen und am Ohr ziehen. Es gibt keine Bauchgefühlsannäherungen mehr. Wir brauchen wirklich die geeigneten Tools, um dieses hohe Leistungsniveau im Computer- und Datenmanagement zu verwalten und bereitzustellen.
Und in diesem Sinne werde ich unserem Freund von IDERA übergeben und erfahren, wie er sich dieser Herausforderung gestellt hat.
Bill Ellis: Vielen Dank. Ich teile meinen Bildschirm und los geht's. Es ist wirklich demütig, nur die gesamte Technologie und alle Leute, die vor uns kamen, in Betracht zu ziehen, um dieses Zeug, das 2017 erhältlich ist, verfügbar zu machen. Wir werden über die Workload-Analyse für SAP HANA sprechen - im Grunde genommen eine Datenbanküberwachungslösung: umfassend, agentenlos, in Echtzeit und mit einem Verlauf, so dass Sie sehen können, was in der Vergangenheit passiert ist. SAP S / 4 HANA bietet das Potenzial, besser, schneller und billiger zu werden. Ich sage nicht, dass es billig ist, ich sage nur, dass es weniger teuer ist. Normalerweise war es so, dass Sie eine Hauptproduktionsinstanz hatten - wahrscheinlich auf Oracle in einem größeren Shop, möglicherweise SQL Server - und dann diesen ETL-Prozess verwendeten und mehrere Versionen der Wahrheit hatten . Und das ist sehr teuer, weil Sie für Hardware, Betriebssystem und Oracle-Lizenz für jede dieser einzelnen Umgebungen bezahlt haben. Und obendrein müssten die Leute eine Version der Wahrheit mit der nächsten Version der Wahrheit in Einklang bringen. Daher war diese ETL-Verarbeitung mit mehreren Versionen nur langsam und sehr, sehr umständlich.
Daher kann HANA, im Grunde genommen eine HANA-Instanz, möglicherweise alle diese anderen Instanzen ersetzen. Es ist weniger teuer, da es sich um eine Hardwareplattform, ein Betriebssystem und nicht um ein Vielfaches handelt. Und so ändert das S / 4 HANA wirklich alles und Sie betrachten im Grunde die Entwicklung von SAP von R / 2 zu R / 3, den verschiedenen Erweiterungspaketen. Jetzt ist das Altsystem bis 2025 verfügbar. Sie haben also acht Jahre Zeit, bis Sie wirklich zur Migration gezwungen werden. Obwohl wir Leute sehen, wissen Sie, die sich damit beschäftigen, weil sie wissen, dass es kommt, und schließlich wird ECC auf HANA laufen, und Sie müssten wirklich darauf vorbereitet sein und die Technologie verstehen.
Also eine Datenbank, keine ETL-Prozesse, keine Kopien, die abgeglichen werden müssen. Also noch einmal schneller, besser und billiger. HANA ist in Erinnerung. SAP liefert die Software, Sie liefern die Hardware. Es gibt keine aggregierten Tabellen. Wenn Sie darüber nachdenken, schlagen sie vor, dass Sie nicht darauf eingehen möchten. Wir werden nur den größten verfügbaren Server kaufen. Sie schlagen vor, dass Sie Ihre SAP-Landschaft im Voraus richtig dimensionieren und im Grunde genommen keine Daten im Wert von 20 Jahren migrieren. Ich denke, Archivierung ist etwas, das in der IT nicht ausreichend genutzt wird, nicht nur in SAP-Shops. Als Nächstes hat SAP tatsächlich viel Zeit damit verbracht, den nativen Code umzuschreiben, um SELECT * nicht zu verwenden. SELECT * gibt alle Spalten aus der Tabelle zurück und ist in einer spaltenbasierten Datenbank besonders teuer. Für SAP HANA ist dies keine gute Idee. In Läden mit vielen Anpassungen und Berichten sollten Sie nach diesen Informationen suchen und Spaltennamen angeben, während Sie die Migration auf HANA fortsetzen.
Wir möchten sagen, dass HANA kein Allheilmittel ist. Wie alle Datenbanken, alle Technologien muss es überwacht werden, und wie bereits erwähnt, benötigen Sie Zahlen, um einen Überschuss von Messung zu Messung zu verwalten. Und eines der Dinge, über die ich im IDERA-Bereich spreche, ist, dass jeder Geschäftsvorgang mit dem Aufzeichnungssystem interagiert, und in diesem Fall wird es HANA sein. Auf diese Weise wird HANA zur Grundlage für die Leistung Ihrer SAP-Transaktionen und für das Endbenutzererlebnis. Deshalb ist es wichtig, dass es mit Höchstgeschwindigkeit weiterläuft. Es wird zu einer einzigen Fehlerquelle, und wenn Sie mit Leuten sprechen, kann dies vorkommen, wenn Sie einen Endbenutzer haben und möglicherweise diese Echtzeitdaten verwenden und diese eine Ad-hoc-Abfrage haben, die möglicherweise nicht ganz stimmt richtig. Vielleicht verbinden sie keine Tabellen und haben einen Outer Join erstellt, ein Partisanenprodukt, und sie verbrauchen im Grunde genommen eine Menge Ressourcen. Jetzt wird HANA das irgendwann erkennen und diese Sitzung beenden. Und so gibt es den entscheidenden Teil unserer Architektur, der es Ihnen ermöglicht, das tatsächlich in der Geschichte festzuhalten, sodass Sie sehen können, was in der Vergangenheit passiert ist, und diese Situationen erkennen können.
Werfen wir also einen Blick auf die Workload-Analyse für SAP HANA. Dies ist Version 1, daher laden wir Sie herzlich ein, sich uns anzuschließen, und dies ist ein Produkt von IDERA. Es ist umfassend und doch einfach. Echtzeit mit Trend. Zustand des Hosts, Zustand der Instanz. Wir verfolgen die Wartezustände, die SQL-Abfragen, Speicherkonsumenten und Dienste. So sieht die GUI aus und Sie können sofort erkennen, dass sie webfähig ist. Ich habe diese Lösung tatsächlich live auf meinem System geöffnet. Es gibt einige wichtige Dinge, die Sie sich ansehen möchten. Wir haben uns in verschiedene Arbeitsbereiche unterteilt. Das Entscheidendste ist, was auf Host-Ebene ausgehend von der CPU-Auslastung und der Speicherauslastung geschieht. Sie wollen definitiv nicht zu einem tauschenden oder krachenden Standpunkt kommen. Und dann arbeiten Sie sich anhand der Antwortzeit, der Benutzer und der SQL-Anweisungen im Wesentlichen dahin, was im Trend vor sich geht, dh was die Aktivität auf dem System antreibt.
Eines der Dinge bei IDERA ist, dass in einer Datenbank nichts passiert, bis Aktivitäten stattfinden. Und diese Aktivität sind SQL-Anweisungen, die von der Anwendung stammen. Das Messen der SQL-Anweisungen ist daher unbedingt erforderlich, um die Grundursache ermitteln zu können. Machen wir also einen Drill-In. Auf Host-Ebene können wir uns also tatsächlich den Arbeitsspeicher, den zeitlichen Verlauf und die CPU-Auslastung des Hosts ansehen. Gehen Sie zurück, Sie können sich die COBSQL-Anweisungen ansehen. Nun, eines der Dinge, die Sie auf unserer Architekturseite sehen werden, ist, dass diese Informationen außerhalb von HANA gespeichert werden. Wenn also etwas mit HANA geschehen sollte, erfassen wir im Grunde genommen Informationen bis zu einer Nichtverfügbarkeitssituation . Wir können auch alles erfassen, was auf dem System passiert, so dass Sie klare Sicht haben. Und eines der Dinge, die wir tun werden, ist, die SQL-Anweisungen in gewichteter Reihenfolge darzustellen. Das wird also die Anzahl der Ausführungen berücksichtigen, und dies ist der aggregierte Ressourcenverbrauch.
Und so können Sie hier auf einzelne Metriken eingehen - wann wurde diese SQL-Anweisung ausgeführt? Und dann wird der Ressourcenverbrauch hauptsächlich durch den Ausführungsplan bestimmt, sodass wir dies kontinuierlich erfassen können. HANA ist in Erinnerung. Es ist sehr parallel. Es gibt Primärindizes für jede Tabelle, für die einige Geschäfte einen Sekundärindex erstellen, um bestimmte Leistungsprobleme zu beheben. Es kann also sehr wertvoll sein, zu wissen, was mit dem Ausführungsplan für bestimmte SQL-Anweisungen geschehen ist. Wir werden auch die Dienste betrachten, den Speicherverbrauch, der im Laufe der Zeit aufgezeichnet wurde. Die Architektur: Dies ist eine eigenständige Lösung, die Sie von unserer Website herunterladen können, und die Architektur ist webfähig.
Sie können mehrere Benutzer mit einer bestimmten Instanz verbinden. Sie können lokale Instanzen von SAP HANA überwachen. Und wir haben eine fortlaufende vierwöchige Historie in unserem Repository, die selbst verwaltet wird. Um dies zu implementieren, ist es ziemlich einfach. Sie benötigen einen Windows Server. Sie müssen es herunterladen. Die meisten Windows-Server verfügen über ein integriertes .NET-Framework und werden mit einer Lizenz geliefert. Sie würden also zum Installationsassistenten gehen, der von Setup.exe gesteuert wird, und tatsächlich einen Bildschirm und eine Lizenzvereinbarung öffnen. Sie würden diese Gliederung einfach durch Klicken auf „Next“ (Weiter) abarbeiten. Und wo möchten Sie, dass HANA sie ausführt? installiert werden? Als Nächstes folgen die Datenbankeigenschaften, und dies wird Ihre Verbindung zum SAP HANA sein. Dies ist also eine agentenlose Überwachung der HANA-Instanz. Und dann geben wir im Grunde genommen eine Vorschau. Dies ist der Port, über den wir standardmäßig kommunizieren. Klicken Sie auf "Installieren" und es startet HANA im Grunde genommen und Sie beginnen mit der Erstellung des Verlaufs. Also nur ein kleiner Ausschnitt aus der Größentabelle. Wir können bis zu 45 HANA-Instanzen überwachen, und Sie möchten diese Art von auf einer verschiebbaren Skala verwenden, um die Anzahl der Kerne, den Arbeitsspeicher und den Speicherplatz zu bestimmen, die Sie benötigen. Und dies setzt voraus, dass Sie eine vollständige vierwöchige Geschichte haben.
Als kurze Zusammenfassung betrachten wir den Serverzustand, den Zustand der Instanzen und die CPU- / Speicherauslastung. Was sind die Speicherkonsumenten, was sind die Aktivitätstreiber, was sind die Dienste? SQL-Anweisungen sind von entscheidender Bedeutung - wie lauten die Ausführungsstatus? Zeigen Sie mir die Ausführungspläne, wann haben die Dinge ausgeführt, was für Trends gesorgt? Dies gibt Ihnen Echtzeit und eine Geschichte dessen, was passiert ist. Und wie ich bereits erwähnte, werden wir, da unsere Geschichte von HANA getrennt ist, Dinge erfassen, die abgelaufen sind und aus der Geschichte von HANA gelöscht wurden. Damit Sie aufgrund des separaten Verlaufs den tatsächlichen Ressourcenverbrauch auf Ihrem System sehen können.
Wie bereits erwähnt, finden Sie dies auf der IDERA-Website unter "Produkte". Wenn Sie dies ausprobieren möchten, sind Sie herzlich willkommen. Sehen Sie, wie es Informationen für Sie bereitstellt, und es gibt zusätzliche Informationen auf dieser Website. Interessenten gehen gerne darauf ein. Jetzt gibt es in den von IDERA angebotenen Portfolio-Produkten auch einen SAP ECC-Transaktionsmonitor, der als Precise for SAP bezeichnet wird. Dabei wird die Endbenutzertransaktion vom Klick auf die Festplatte bis hin zur SQL-Anweisung erfasst und es wird angezeigt, was gerade passiert. Dies gilt unabhängig davon, ob Sie das Portal oder nur das direkte ECC verwenden.
Jetzt zeige ich Ihnen nur einen Zusammenfassungsbildschirm. Es gibt ein paar Imbissbuden, die Sie von diesem Zusammenfassungsbildschirm haben sollen. Es ist die Antwortzeit der Y-Achse, die Zeit der X-Achse und der Tag. In dieser Transaktionsansicht werden die Client-Zeit, die Warteschlangenzeit, die ABAP-Code-Zeit und die Datenbankzeit angezeigt. Wir können Endbenutzer-IDs und T-Codes erfassen und Sie können Server über eine bestimmte Transaktion filtern und anzeigen. Viele Shops betreiben das Front-End der Landschaft unter VMware, sodass Sie tatsächlich messen können, was auf jedem der Server passiert, und eine sehr detaillierte Analyse durchführen können. Diese Transaktionsansicht gilt also für die Endbenutzertransaktion in der gesamten SAP-Landschaft. Und das finden Sie auf unserer Website unter Products APM Tools. Dies wäre die SAP-Lösung, die wir haben. Die Installation hierfür ist etwas komplizierter, es muss also nicht nur heruntergeladen und ausprobiert werden, wie wir es für HANA getan haben. Hier arbeiten wir zusammen, um die gesamte Transaktion für Sie zu gestalten und umzusetzen.
Nur eine dritte kurze Zusammenfassung der Workload-Analyse für SAP HANA: Umfassend, ohne Agenten, in Echtzeit, mit Historie. Wir bieten die Möglichkeit, es für Ihre Site herunterzuladen und zu testen.
Also werde ich die Zeit an Eric, Dez und Dr. Bloor zurückgeben.
Eric Kavanagh: Ja, vielleicht Robin, irgendwelche Fragen von dir und dann Dez nach Robin?
Dr. Robin Bloor: Okay. Ich meine, das erste, was ich sagen möchte, ist, dass ich die Transaktionsansicht wirklich mag, weil es genau das ist, was ich in dieser Situation möchte. Ich habe viel gearbeitet - nun ja, es ist schon lange her -, um die Leistung zu überwachen, und das war die Art der Sache. Wir hatten damals noch keine Grafik, aber genau das wollte ich tun können. So können Sie sich auf die eine oder andere Weise dort einbringen, wo das Problem auftritt.
Die erste Frage, die ich habe, ist, dass die meisten Leute S / 4 auf die eine oder andere Art und Weise implementieren, wie Sie wissen. Wenn Sie an einer bestimmten Implementierung von S / 4 beteiligt waren, haben Sie festgestellt, dass diese ordnungsgemäß implementiert wurde, oder haben Sie am Ende Dinge entdeckt, die den Kunden möglicherweise zu einer Neukonfiguration veranlassen könnten? Ich meine, wie geht das alles?
Bill Ellis: Nun, jeder Laden ist ein bisschen anders. Und es gibt unterschiedliche Nutzungsmuster, es gibt unterschiedliche Berichte. Für Websites mit Ad-hoc-Berichten ist das eigentlich ein Platzhalter im System. Daher ist es von entscheidender Bedeutung, mit der Messung zu beginnen und herauszufinden, wie hoch die Baseline ist, was für einen bestimmten Standort normal ist und wo sich dieser Standort basierend auf seinen Nutzungsmustern befindet und das System belastet. Und dann von dort aus Anpassungen vornehmen. In der Regel handelt es sich bei der Überwachungsoptimierung nicht um eine einmalige, sondern um eine fortlaufende Übung, bei der Sie überwachen, optimieren und optimieren, um das System für die Endbenutzergemeinschaft besser zu machen und das Geschäft effektiver zu bedienen.
Dr. Robin Bloor: Okay, also, wenn Sie implementieren - ich meine, ich weiß, dass diese Frage schwierig zu beantworten ist, da sie je nach Implementierungsgröße variieren wird -, aber wie viel Ressourcen benötigt die IDERA-Überwachungsfunktion, wie viel verbraucht sie ? Macht es irgendetwas aus oder stört es einfach nicht? Wie funktioniert das?
Bill Ellis: Ja, ich würde sagen, dass der Overhead ungefähr 1-3 Prozent beträgt. Viele Geschäfte sind sehr gewillt, dies zu opfern, da Sie dies möglicherweise im Sinne einer Optimierung zurückkaufen können. Dies hängt von den Nutzungsmustern ab. Wenn Sie eine vollständige Landschaft erstellen, hängt dies von den einzelnen zu überwachenden Technologien ab. Die Laufleistung ist also unterschiedlich, aber wie wir bereits gesagt haben, ist es definitiv besser, ein bisschen Zeit zu investieren, um zu wissen, was los ist, als einfach blind zu werden. Wissen Sie, wir sind im Januar und Sie beginnen mit der Verarbeitung zum Jahresende und sammeln Daten im Wert von 12 Monaten. Wissen Sie, das ist Leistung. Berichte an Aufsichtsbehörden, Banken und Aktionäre zu senden, ist für eine kritische Geschäftsleistung von entscheidender Bedeutung.
Dr. Robin Bloor: Richtig. Und aus Ihrer Sicht nur eine kurze Bemerkung: Wie groß ist die Bewegung der SAP-Kundenbasis in Richtung S / 4, da Sie vermutlich mit einer ganzen Reihe von SAP-Standorten zu tun haben? Ich meine, ist das etwas, das eine Art Lawine begeisterter Kunden ist, oder ist es nur ein stetiges Rinnsal? Wie siehst du das
Bill Ellis: Ich glaube, vor ein paar Jahren war es ein Zeh. Jetzt würde ich sagen, dass die Leute irgendwie bis zum Knie sind. Ich glaube, Sie wissen, dass die Leute in den nächsten Jahren wirklich in HANA eintauchen werden. Und so ist die Überwachung, die Transformation, Sie wissen, ich denke, dass die Mehrheit der Kunden zusammen auf der Lernkurve ist. Ich denke also, wir sind nicht ganz in der Lawine, wie Sie gesagt haben, aber ich denke, wir stehen kurz vor der großen Transformation zu HANA.
Dr. Robin Bloor: Okay, in Bezug auf die Sites, die Sie gesehen haben, die sich dafür entschieden haben, passen sie HANA auch für andere Anwendungen an oder sind sie auf die eine oder andere Weise völlig damit beschäftigt, dies zu tun Zeug arbeiten? Was ist das Bild dort?
Bill Ellis: Ja, in vielen Fällen wird SAP in andere Systeme integriert, je nachdem, welche Module usw. verwendet werden. Ich sehe noch nicht wirklich Leute, die andere Anwendungen auf HANA bereitstellen. Das ist sicherlich möglich. Es geht also mehr um die Landschaft rund um die SAP-Infrastruktur.
Dr. Robin Bloor: Ich nehme an, ich leite Sie besser an Dez weiter. Ich habe deine Zeit verschlungen. Dez?
Dez Blanchfield: Danke. Nein, das ist alles gut. Zwei sehr schnelle, nur um das Thema festzulegen. SAP HANA gibt es bereits seit einigen Jahren und die Leute hatten die Möglichkeit, darüber nachzudenken. Wenn Sie uns eine grobe Schätzung des Prozentsatzes der Leute geben würden, die es leiten - weil es eine Menge Leute gibt, die dieses Zeug leiten -, was denken Sie, ist der Prozentsatz des Marktes, den Sie kennen, derzeit verschwunden? von nur traditionellen SAP-Implementierungen zu SAP auf HANA? Betrachten wir 50/50, 30/70? Was für einen Prozentsatz des Marktes sehen Sie von Menschen, die den Übergang vollzogen haben, im Vergleich zu Leuten, die nur zurückhalten und darauf warten, dass sich die Dinge verbessern oder verbessern oder ändern oder was auch immer der Fall sein mag?
Bill Ellis: Ja, aus meiner Sicht würde ich den Prozentsatz auf ungefähr 20 Prozent setzen. SAP ist in der Regel ein traditionelles Unternehmen. Die Leute neigen dazu, sehr konservativ zu sein, und so werden ihre Leute ihre Füße schleifen. Ich denke, es hängt auch davon ab, ob Sie schon lange SAP einsetzen oder eine Art KMU, das SAP möglicherweise erst kürzlich eingeführt hat. Es gibt also eine Reihe von Faktoren, aber insgesamt glaube ich nicht, dass der Prozentsatz 50/50 beträgt. Ich würde sagen, 50 Prozent versuchen es zumindest und lassen HANA irgendwo in ihrem Rechenzentrum laufen.
Dez Blanchfield: Das Interessante, das Sie uns vorhin mit auf den Weg gegeben haben, war, dass dies in gewissem Sinne eine vollendete Tatsache ist und dass die Zeit für den Übergang physisch und buchstäblich tickt. Denken Sie dabei, dass die Leute darüber nachgedacht haben? Wie ist das allgemeine Verständnis der Leute, dass dies eine vorübergehende Verschiebung der Plattform ist, es ist nicht nur eine Option, es wird zum Standard?
Und aus Sicht von SAP bin ich mir sicher, dass sie diesen Weg vorantreiben, da die Leistung einen erheblichen Wettbewerbsvorteil hat, aber ich denke, dass sie die Kontrolle über die Plattform zurückerobern, anstatt sie an einen Dritten weiterzugeben. Parteidatenbank, sie bringen es jetzt zurück auf ihre eigene Plattform. Glauben Sie, dass Unternehmen diese Botschaft tatsächlich erhalten haben? Denken Sie, dass die Leute das verstehen und sich jetzt darauf einstellen? Oder ist es immer noch eine Art unklare Sache, denken Sie, außerhalb des Marktes?
Bill Ellis: Ich glaube nicht, dass die SAP die Kommunikation scheut und Menschen, die zu SAPPHIRE gegangen sind, HANA überall gesehen haben. Also, ich denke die Leute sind sich sehr wohl bewusst, aber da die menschliche Natur so ist, wie sie ist, ziehen manche Leute ein bisschen ihre Füße.
Dez Blanchfield: Weil ich denke, der Grund, warum ich diese Frage gestellt habe, und Sie mir vergeben müssen, aber es ist, dass ich zustimme. Ich denke, sie waren nicht schüchtern, es zu kommunizieren. Ich denke, dass das Signal in vielerlei Hinsicht erloschen ist. Und ich stimme dir zu - ich weiß nicht, dass alle schon gesprungen sind. Wissen Sie, traditionelle Unternehmen, sehr große Unternehmen, die dies betreiben, sind immer noch in vielerlei Hinsicht nicht ganz aufgeregt, sondern versuchen nur, sich mit der Komplexität der Verschiebung auseinanderzusetzen. Weil ich denke, dass die eine Sache, die Ihr Tool und sicherlich Ihre heutige Demonstration hervorgehoben hat, und für mich eine wichtige Erkenntnis ist, dass jeder, der heute zuhört und sich einschaltet, sich hinsetzt und nachdenklich darauf achtet, dass Sie eine haben Werkzeug jetzt, das ist dieser Prozess in meinem Kopf vereinfacht. Ich denke, es gibt eine Reihe sehr nervöser CIOs und ihre Teams unter ihnen, die sich fragen: „Wie mache ich den Übergang von traditionellen relationalen Datenbankverwaltungssystemen (RDBMS), die wir seit Jahrzehnten kennen, zu einem völlig neuen Paradigma der Datenverarbeitung und -verarbeitung? Speicherverwaltung in einem Raum, der noch relativ mutig ist? “in meinen Gedanken. Aber es ist in vielerlei Hinsicht ein Unbekannter, und es gibt nur sehr wenige Menschen, die diesen Wandel in anderen Bereichen vollzogen haben. Es ist nicht so, als hätten sie einen anderen Geschäftsbereich, der sich bereits für In-Memory-Computing entschieden hat. Es ist also eine Alles-oder-Nichts-Bewegung in ihrem Kopf.
Also, eines der Dinge, die ich mehr als alles andere weggenommen habe - ich werde Sie gleich mit einer Frage treffen - ist, dass die Angst jetzt, denke ich, auf viele Arten beseitigt ist und dass vor heute, Wenn ich als CIO zuhören würde, würde ich irgendwie denken: „Nun, wie werde ich diesen Übergang machen? Wie kann ich die Fähigkeit, die wir in der relationalen Datenbankverwaltungsplattform und der langjährigen Erfahrung von Datenbankadministratoren haben, einer neuen Plattform garantieren, für die wir derzeit nicht über die erforderlichen Kenntnisse verfügen? “Meine Frage lautet also Glauben Sie, dass die Leute verstanden haben, dass die Tools mit dem, was Sie anbieten, jetzt da sind und dass sie irgendwie tief durchatmen und erleichtert aufatmen können, dass der Übergang nicht so beängstigend ist, wie er vorher gewesen sein könnte? Ist dieses Tool verfügbar? Glauben Sie, die Leute haben das verstanden, oder ist es immer noch so, dass sie sich nur mit dem Übergang zu In-Memory-Computing und In-Memory-Storage im Vergleich zu herkömmlichen Kombinationen aus NVMe, Flash und Festplatte auseinandersetzen?
Bill Ellis: Ja, es gibt zweifellos viele Technologien und Tools, die dies grafisch darstellen und es sehr einfach machen, die wichtigsten Ressourcenkonsumenten zu lokalisieren. Ich meine, es hilft, die Dinge zu vereinfachen, und es hilft den Technikern, wirklich einen guten Griff zu bekommen. Hey, sie werden wissen, was los ist und die ganze Komplexität verstehen können. Die Tools auf dem Markt sind also auf jeden Fall hilfreich, und deshalb bieten wir eine Workload-Analyse für SAP HANA an.
Dez Blanchfield: Ja, ich denke, das Tolle an dem, was Sie uns heute gezeigt haben, ist, dass Sie beim Überwachen des Hardware-Teils, des Betriebssystem-Teils, sogar einen Teil der Arbeitslast überwachen, die sich durch die Tools bewegt, wie Sie sagten seit einiger Zeit dort gewesen. Das gewisse Etwas für mich, insbesondere für Leute wie HANA, ist, dass wir nicht unbedingt die Möglichkeit hatten, ein Vergrößerungsglas zu bekommen, einen Blick hineinzuwerfen und zu sehen, was Ihr Tool mit den Abfragen tut und wie sie ablaufen strukturiert sein und wo diese Last ist.
Mit den Bereitstellungen, die Sie bisher gesehen haben, gehören einige der schnellen Erfolge, die Sie gesehen haben, dazu, da Sie buchstäblich die maßgeblichsten in diesem Bereich auf Ihrer Plattform der Welt sind - haben Sie alle anekdotischen Kenntnisse, mit denen Sie teilen können Bei einigen der Eureka-Momente, den Aha-Momenten, in denen die Leute das IDERA-Toolset bereitgestellt haben, haben sie Dinge gefunden, von denen sie einfach nicht wussten, dass sie in ihren Plattformen und Performances vorhanden waren. Haben Sie großartige Beispiele dafür, wo die Leute es gerade eingesetzt haben, nicht wirklich wissen, was sie hatten, und auf einmal nicht mehr: "Wow, wir wussten eigentlich nicht, dass das da drin ist?"
Bill Ellis: Ja, eine große Einschränkung der nativen Tools besteht darin, dass die Informationen gelöscht werden, wenn eine außer Kontrolle geratene Abfrage abgebrochen wird, und Sie im Grunde nicht über den Verlauf verfügen. Wenn wir den Verlauf offline speichern, wie bei einer außer Kontrolle geratenen Abfrage, haben Sie einen Verlauf, wissen, was passiert ist, können den Ausführungsplan anzeigen und so weiter. Auf diese Weise können Sie der Endbenutzergemeinschaft im Grunde genommen helfen, besser zu arbeiten, Berichte besser zu schreiben usw. Und so ist die Geschichte etwas wirklich Schönes. Und eines der Dinge, die ich zeigen wollte, ist, dass Sie bis zu vier Wochen in Echtzeit anzeigen und dann einen beliebigen Zeitrahmen ganz einfach vergrößern und dann die zugrunde liegende Fahraktivität aufdecken können. Nur diese Sichtbarkeit ist sehr hilfreich, um zu wissen, welcher Engpass aufgetreten ist.
Dez Blanchfield: Sie haben erwähnt, dass es sich nach der Bereitstellung um ein Multi-User- System handelt, und ich war ziemlich beeindruckt von der Tatsache, dass es in vielerlei Hinsicht agentenlos und praktisch berührungslos ist. Ist es normal, dass eine einzelne Bereitstellung Ihres Tools dann für alle vom Netzwerkbetriebszentrum in der NOC-Überwachungskerninfrastruktur, auf der der Cluster basiert, bis zum Anwendungs- und Entwicklungsteam verfügbar ist? Ist es die Norm und Sie stellen es einmal bereit und sie würden es teilen, oder nehmen Sie an, dass Leute Modellinstanzen haben, die verschiedene Teile des Stapels betrachten? Wie sieht das aus?
Bill Ellis: Das Basisteam wird also in der Regel ein sehr starkes Interesse an den technologischen Grundlagen des Geschehens in SAP haben. Natürlich gibt es mehrere Teams, die ganze Landschaften unterstützen. Das HANA-Stück konzentriert sich nur darauf. Ich werde lediglich das SAP-Basisteam als Hauptkonsument der Informationen auswählen.
Dez Blanchfield: Richtig. Es fällt mir jedoch auf, dass ich ein Entwicklerteam habe oder nicht nur auf Code-Ebene, sondern auch ein Team von Datenwissenschaftlern oder -analytikern, die analytische Arbeiten an den dortigen Datensätzen durchführen, insbesondere angesichts der Tatsache, dass es solche gibt Ein wichtiger Schritt in Richtung Data Science, der in meinen Augen jetzt auf alles innerhalb von Organisationen angewendet wird - und korrigiert mich, wenn ich mich irre -, scheint mir, dass dies auch für sie von großem Interesse sein wird, weil in vielerlei Hinsicht einer Zu den schwerwiegenden Aufgaben, die Sie in einer Data-Warehouse-Umgebung ausführen können, gehört es, einen Datenwissenschaftler damit zu beauftragen und ihm zu erlauben, nur Ad-hoc-Abfragen durchzuführen. Haben Sie Beispiele für solche Dinge gesehen, in denen Sie von Geschäften angerufen wurden und gesagt haben: „Wir haben ein Data-Science-Team auf die Sache geschleudert, es tut wirklich weh, was wir für sie tun können im Vergleich zu dem, was wir gerade tun traditionelle Betriebsüberwachung und -verwaltung? “Ist das überhaupt eine Sache?
Bill Ellis: Nun, ja, ich würde das ein bisschen ändern und meine Antwort verkürzen : Wenn ich die Leistung betrachte und leistungsbewusst an der Entwicklung der QS-Produktion arbeite, weißt du, je früher du sie lagerst, desto weniger Probleme, desto weniger Überraschungen, die Sie haben. Also absolut.
Dez Blanchfield: Im Anschluss daran brauche ich viele Tools, mit denen ich Erfahrung hatte - und ich bin sicher, Robin wird mir zustimmen -, viele Tools hier. Wenn Sie ein großes RDBMS haben, brauchen Sie wirklich hohe Anforderungen. qualifizierte, fundierte und erfahrene Datenbankadministratoren. Einige der Infrastruktur- und Plattformanforderungen, die mit SAP HANA verbunden sind, da es derzeit auf bestimmten Distributionen unterstützt wird, die nach meinem besten Wissen von bestimmter Hardware usw. ausgerichtet sind. Wissen Sie, es gibt Menschen mit jahrzehntelanger Erfahrung, die nicht gleich sind. Ich sehe jedoch, dass dies bei diesem Tool nicht unbedingt erforderlich ist. Es scheint mir, dass Sie Ihr Werkzeug einsetzen und einigen ziemlich neuen Gesichtern geben können und ihnen sofort die Kraft geben können, Dinge zu finden, die nicht gut funktionieren. Ist es der Fall, dass es eine ziemlich kurze Einarbeitungszeit gibt, um sich damit vertraut zu machen und einen gewissen Nutzen aus der Bereitstellung zu ziehen? Sie wissen, mein allgemeiner Eindruck ist, dass Sie nicht über 20 Jahre Erfahrung im Fahren eines Werkzeugs verfügen müssen, um den Wert sofort zu erkennen. Würden Sie zustimmen, dass dies der Fall ist?
Bill Ellis: Oh, absolut, und Ihrer Meinung nach hängt ein Großteil des Erfolgs einer Bereitstellung wirklich von der Planung und Architektur der SAP-HANA-Umgebung ab. Und dann gibt es zweifellos eine Menge Komplexität, eine Menge Technologie, auf die aufgebaut ist, aber dann kommt es nur noch darauf an, die Nutzungsmuster der Geschehnisse zu überwachen. Also, obwohl es komplexer ist, ist es in gewisser Weise verpackt und etwas vereinfacht. Das ist eine sehr arme.
Dez Blanchfield: Ja, also bevor ich an Eric zurückgebe, weil ich weiß, dass er ein paar Fragen hat, insbesondere von einigen, die durch Fragen und Antworten beantwortet wurden, die interessant aussahen, und ich bin gespannt auf die Antwort darauf. Traditionelle Reise für jemanden - Sie haben bereits erwähnt, dass Sie sie erhalten, herunterladen und ausprobieren können. Können Sie das kurz wiederholen, wenn Sie heute oder später zuhören? In zwei oder drei Schritten erhalten sie eine Kopie, stellen sie bereit und testen sie in ihrer Umgebung, bevor sie sie kaufen? Wie sieht das aus? Was sind die Schritte dafür?
Bill Ellis: Ja. Also, IDERA.com und gehen Sie einfach zu Produkte und Sie werden Workload-Analyse für SAP HANA sehen. Es gibt eine Download-Seite. Ich denke, sie werden Sie nach einigen Kontaktinformationen fragen und das Produkt ist nur mit einem Lizenzschlüssel verpackt, damit Sie es mit der Setup.exe installieren können und einfach loslegen können, denke ich, sehr schnell.
Dez Blanchfield: Sie können also auf Ihre Website gehen und sie herunterladen. Ich erinnere mich, wie ich es mir vor einiger Zeit angesehen habe und gestern Abend auch noch einmal nachgesehen habe, können Sie eine Demo aus dem Gedächtnis anfordern, in der Sie jemand aus Ihrem Team irgendwie durch die Sache führen wird. Aber Sie können es tatsächlich kostenlos herunterladen und lokal in Ihrer eigenen Umgebung bereitstellen, in Ihrer eigenen Zeit, nicht wahr?
Bill Ellis: Ja.
Dez Blanchfield: Exzellent. Nun, ich denke, mehr als alles andere ist es wahrscheinlich das, was ich den Leuten persönlich raten würde, eine Kopie von der Website zu holen und einige der Dokumentationen dort zu holen, weil ich weiß, dass es dort eine Menge guter Inhalte gibt, mit denen man das machen kann. und probier es einfach aus. Legen Sie es in Ihre Umgebung und sehen Sie, was Sie finden. Ich vermute, wenn Sie mit dem IDERA-Tool einen Blick unter die Haube Ihrer SAP-HANA-Umgebungen werfen, werden Sie Dinge finden, von denen Sie eigentlich nicht wussten, dass sie sich dort befanden.
Ich danke Ihnen vielmals dafür und danke Ihnen für die Zeit, die Sie mit Robin und mir verbracht haben. Eric, ich werde auf Sie zurückkommen, weil ich weiß, dass auch einige Fragen und Antworten von unseren Teilnehmern beantwortet wurden.
Eric Kavanagh: Ja, nur eine ganz schnelle hier. Einer der Teilnehmer macht hier also einen wirklich guten Kommentar und spricht nur darüber, wie sich die Dinge ändern. In der Vergangenheit war der Speicher gedrosselt und wurde durch häufiges Blättern verlangsamt. Derzeit ist die CPU mit zu vielen Daten im Speicher gedrosselt. Sie wissen, dass es Netzwerkprobleme gibt. Es wird immer ein sich bewegendes Ziel sein, oder? Wie sehen Sie die Entwicklung in diesen Tagen in Bezug darauf, wo die Engpässe sein werden und wo Sie Ihre Aufmerksamkeit konzentrieren müssen?
Bill Ellis: Ja. Bis Sie messen, ist es schwer zu wissen. Eines der Dinge an den SQL-Anweisungen ist, dass sie die Treiber des Ressourcenverbrauchs sein werden. Wenn Sie also beispielsweise einen hohen Speicher- oder CPU-Verbrauch haben, können Sie herausfinden, welche Aktivität diesen Ressourcenverbrauch verursacht hat. Nun, Sie würden es nicht unbedingt töten wollen, aber Sie möchten sich auch dessen bewusst sein und irgendwie wissen, was passiert, wie oft es passiert, und so weiter. Wir sind irgendwie noch neu in Bezug auf die Adressierung des gesamten Sets oder des Kochbuchs von Antworten auf verschiedene Umstände. Und so ist es eine gute Frage und die Zeit wird es zeigen. Mit der Zeit werden wir mehr Informationen haben.
Eric Kavanagh: Das ist es. Ihr seid an einem sehr interessanten Ort. Ich denke, Sie werden in den kommenden Monaten und in den nächsten Jahren eine Menge Aktivität erleben, da ich weiß, dass SAP, wie Sie in unserem Content-Aufruf angedeutet haben, eine schöne lange Einstiegsrampe für die Leute bereit gestellt hat, um den Übergang zu vollziehen bei HANA. Trotzdem hat diese Rampe ein Ende und irgendwann müssen die Leute ernsthafte Entscheidungen treffen. Je früher, desto besser, richtig?
Bill Ellis: Auf jeden Fall.
Eric Kavanagh: Okay Leute, wir haben hier bei Hot Technologies eine weitere Stunde durchgebrannt. Sie finden Informationen online unter insideanalysis.com und techopedia.com. Konzentrieren Sie sich auf diese Site, um viele interessante Informationen zu erhalten, einschließlich einer Liste aller Archive dieser vergangenen Webcasts. Aber Leute, ein großes Dankeschön an alle da draußen, an unsere Freunde bei IDERA, an Robin und natürlich an Dez. Und wir werden uns nächste Woche bei Ihnen melden, Leute. Nochmals vielen Dank für Ihre Zeit und Aufmerksamkeit. Sich kümmern. Tschüss.