HPE Data Fabric

Autoryzowany partner hewlett packard

Koncepcja Data Fabric w eksabajtowej skali zapewnia sukces dzięki
AI, analityce oraz kontenerach w chmurze hybrydowej

Przedsiębiorstwa poszukują strategii, które pozwolą im wykorzystać potencjał danych, analityki oraz sztucznej inteligencji (AI). Jednocześnie mamy do czynienia z zasadniczą zmianą w ramach strategii infrastrukturalnych dzięki chmurze hybrydowej oraz konteneryzacji Kubernetes, które są wdrażane na niespotykaną wcześniej skalę. Jest to wieloetapowy proces, w czasie którego musimy podjąć wiele ważnych decyzji. Oprogramowanie HPE Data Fabric (wcześniej znane jako platforma MapR Data Platform) pozwala na pobieranie i przechowywanie danych oraz zarządzanie nimi na szeroką skalę, aby zadbać o ich dostępność w ramach nowych technik komputerowych i narzędzi. HPE Data Fabric integruje się z platformą HPE Container Platform i umożliwia wdrożenie aplikacji opartych na danych w Kubernetes przy zachowaniu odpowiedniej skali i w dowolnej infrastrukturze – na miejscu, w wielu chmurach publicznych lub na brzegu siec

NOWA ARCHITEKTURA DATA FABRIC

Dane stają się najważniejszymi aktywami firmy. Firmy myślące przyszłościowo rozumieją tę nową ekonomię opartą na danych – zdobywają udziały rynkowe, ponieważ wykorzystują dane skuteczniej niż konkurencja. Najnowsza generacja, a nawet nowsze technologie, nie są w stanie zaspokoić nowych potrzeb. Co więcej, dane podlegają demokratyzacji. Analityk danych oraz programista są bardziej wydajni, kiedy mogą wybrać własne narzędzia i przejść do odpowiednich danych w bezpieczny i prosty sposób. Wymaga to nowej architektury Data Fabric, która jest w stanie sprostać potrzebom analityków danych w zakresie szybkiego dostępu do innowacyjnych nowych narzędzi, a jednocześnie zapewniać wymagane przez organizacje IT niezawodność i bezpieczeństwo klasy korporacyjnej. W efekcie 30-letni proces ponownego tworzenia platformy jest aktualnie w toku. Problem polega na tym, że łatwo wpaść w pułapkę wyboru wielu rozwiązań i nie myśleć o zasadniczym znaczeniu Data Fabric. Z doświadczenia wiemy, że historia lubi się powtarzać przy ograniczonej liczbie rozwiązań i większej liczbie silosów, chyba że zostanie podjęta decyzja opracowania i budowy odpowiednich fundamentów. Sukces stosowania AI oraz analityki w produkcji zależy od podstaw Data Fabric. HPE Data Fabric to architektura zoptymalizowana pod kątem najważniejszych możliwości, liniowej skalowalności, elastyczności HPE DATA FABRIC Koncepcja Data Fabric w eksabajtowej skali zapewnia sukces dzięki AI, analityce oraz kontenerach w chmurze hybrydowej Krótki opis produktu Check if the document is available in the language of your choice. Dokonaj właściwego zakupu. Skontaktuj się z naszymi specjalistami ds. przedsprzedaży. Chat E-mail Telefon Pobierz aktualizacje oraz zdolności płynnego wdrażania w świecie chmury hybrydowej przy jednoczesnym wykorzystaniu mocy konteneryzacji Kubernetes dla zapewniania elastyczności. Architektura Data Fabric, która jest w stanie wspierać innowacje w nadchodzących latach oraz obejmuje całe przedsiębiorstwo, zyskuje zasadnicze znaczenie.

WIZJA HPE DOTYCZĄCA DATA FABRIC

Potrzebne jest unikatowe i przełomowe podejście, które połączy najważniejsze nowe technologie, takie jak Hadoop, Spark, uczenie maszynowe (ML) oraz narzędzia AI, przy jednoczesnej optymalizacji pod kątem dużej skali, niezawodności i elastyczności w ramach konteneryzacji. Krytyczne znaczenie ma również elastyczność globalnego wdrożenia, uzyskiwana poprzez płynne łączenie rozwiązań wdrożonych na miejscu, na brzegu sieci lub w jednej lub większej liczbie chmur. Architektura HPE Data Fabric została opracowana, zaprojektowana i wdrożona za pomocą zestawu zasad, które pozwalają spełnić najważniejsze kryteria klientów pozwalające dokonać przemyślanego wyboru

 

HPE DATA FABRIC

1. Obsługa różnego rodzaju danych, od dużych do małych zbiorów, danych ustrukturyzowanych i nieustrukturyzowanych,  w tabelach, strumieniach lub plikach, danych
związanych z Internetem rzeczy (IoT) oraz czujnikami – zwłaszcza każdego typu danych z dowolnego źródła danych, włączając w to stały zestaw mechanizmów pobierania

2. Wsparcie dla różnych narzędzi przetwarzania oraz struktur, takich jak Hadoop, Spark, ML, TensorFlow oraz Caffe

3. Jednoczesne uruchamianie AI oraz aplikacji analitycznych, bez wymagań dotyczących wielu klastrów lub silosów, co oznacza krótszy czas wejścia na rynek, mniej prac związanych z konserwacją oraz bardziej spójne wyniki z powodu wykorzystywania tego samego zestawu danych przez osoby zajmujące się data science oraz analityką

4. Zapewnianie szerokiej gamy otwartych API – POSIX, HDFS, S3, JSON, HBase, Kafka, REST

5. Oferowanie strumieniowania pub-sub i rozwiązania edge first w zakresie wszystkich danych w ruchu z dowolnego źródła danych, włączając w to czujniki IoT

6. Zaufanie – zabezpieczenia zostały wbudowane w rozwiązanie

7. Zapewnianie niezawodności, bezpieczeństwa i skali, które pozwalają operować w globalnym środowisku produkcyjnym AI o znaczeniu krytycznym oraz aplikacjach analitycznych

8. Ułatwianie przenoszenia danych i aplikacji pomiędzy lokalizacjami na miejscu i w chmurze poprzez wsparcie aplikacji za pomocą Kubernetes

9. Działanie w dowolnej chmurze, które stanowi bardzo ważną cechę, dzięki której klient może doświadczyć korzyści płynących z chmury i nie spotka się z blokadą przy korzystaniu z wielu chmur lub lokalnych centrów danych

10. Zapewnianie globalnej architektury Data Fabric do równoczesnego pobierania, przechowywania, kontrolowania, przetwarzania, stosowania i analizowania danych

Architektura HPE Data Fabric

HPE Data Fabric zapewnia odpowiedź na fundamentalne wyzwania dzięki unikatowej, globalnej architekturze Data Fabric do AI  i aplikacji analitycznych w skali produkcyjnej. Jest to spowodowane tym, że architektura Data Fabric zapewnia niezrównaną skalę, wydajność i niezawodność, które pozwalają zadbać o dostarczanie czystej wartości biznesowej oraz przewagi konkurencyjnej.

WIĘCEJ INFORMACJI:
hpe.com/info/data-fabric