A Techopedia munkatársai, 2016. szeptember 22
Elvihető: Rebecca Jozwiak házigazda elemzi az él elemzését Dr. Robin Bloorral, Dez Blanchfieldrel és a Dell Statistica Shawn Rogers-szel.
Jelenleg nincs bejelentkezve. Kérjük, jelentkezzen be vagy jelentkezzen be a videó megtekintéséhez.
Rebecca Jozwiak: Hölgyeim és uraim, üdvözlet és üdvözlet a 2016-os Hot Technologies-ben. Ma megvan az „Edge Analytics: Az IoT gazdasága végre.” Nevem Rebecca Jozwiak. A mai internetes közvetítés moderátora vagyok. A (z) # HOTTECH16 hashtaggal tweettet küldünk, ha csatlakozni szeretnél a Twitter beszélgetéshez.
Tehát az IoT, amely egyértelműen forró téma ebben az évben, és a dolgok internetje, valójában a gépadatokkal, az érzékelők adataival, a naplóadatokkal és az eszközök adataival kapcsolatos. Ezek egyike sem új, már örökre rendelkezünk ilyen típusú adatokkal, de valójában nem tudtuk használni őket, és most csak egy csomó új módszert látunk az adatok felhasználására. Különösen az orvosi iparban, a pénzügyi piacokon, az olaj- és földgáz-, valamint az árucikkekkel, ez csak egy rengeteg információ, amelyet korábban nem használták fel. És nem nagyon sok ember igazán értette meg, hogyan kell ezt jól megtenni. Nagyon kevés adatról beszélünk, de nagyon sok adatról van szó, és tudod, vannak hálózati problémák, van hardver vagy feldolgozás szükséges, és hogyan lehet ezt megtenni a rendszer eltömődése nélkül? Nos, erről tanulunk majd ma.
Itt van a szakértőink felsorolása. Megvan Dr. Robin Bloor, a The Bloor Csoport fő elemzője. Van még Dez Blanchfield, a The Bloor Csoport adattudósunk. Örülünk annak, hogy Shawn Rogers, a Dell Statistica globális marketing és csatornák igazgatója van. És ezzel átadom a labdát Robinnak.
Dr. Robin Bloor: Oké, köszönöm szépen. Megnyomom a gombot, és feldobom a diát. Fogalmam sincs, miért hoztam létre ezt az apokaliptikus képet a dolgok internetéhez. Lehetséges, mert azt hiszem, hogy végül kaotikus lesz. Egyenesen továbbmegyek. Ez megegyezik a tanfolyam bármely tárgyak internete bemutatójában. Így vagy úgy, valami felháborítónak kell mondania arról, hogy mi az egész. Valójában ennek nagy része valószínűleg igaz. Ha valóban megnézzük, hogy ezek a görbék fokozatosan bővülnek. Tudod, a személyi számítógépek, az okostelefonok és a táblagépek valószínűleg továbbra is növekedni fognak. Az intelligens TV-k valószínűleg nőni fognak. Hordható, valószínűleg most felrobbannak, mint néhány évvel ezelőtt. Összekapcsolt autók, elkerülhetetlen, hogy nagyjából minden autót alaposan szélesre kell kapcsolni, és folyamatosan átadják az adatokat. És minden más. És ez a BI Intelligence grafikonja azt jelzi, hogy minden más nagyon-nagyon gyorsan felülmúlja a nyilvánvaló dolgokat.
Tehát mit kell mondani az internetről? Az első dolog csak építészeti szempont. Tudod, ha adatokkal rendelkezel, és úgy vagy úgy feldolgozod, akkor mindkettőt össze kell állítanod. És a kötetekkel kapcsolatos adatokkal, amelyek jelenleg vannak, és különböző helyekre gyűjtve, a kettő már nem természetesen együtt. Szerintem a régi mainframe-napokban voltak, azt hiszem. Tehát gondolkodhat úgy, hogy létezik egy feldolgozási réteg, egy transzportréteg és egy adatréteg. És így vagy úgy, a közlekedési réteg manapság meg fogja mozgatni a feldolgozást, vagy az adatokat hálózatok között mozgatja. Tehát itt van a választás lehetősége: Áthelyezheti az adatokat a feldolgozásra, áthelyezheti a feldolgozást az adatokra, áthelyezheti a feldolgozást és az adatokat egy kényelmes végrehajtási pontra, vagy szétválaszthatja a feldolgozást és szétoszthatja az adatokat. Ami a dolgok internetét illeti, az adatok már születéskor már nagymértékben növekednek, és valószínű, hogy a feldolgozás szörnyű részét élesíteni fogják annak érdekében, hogy a futtatni kívánt alkalmazások megtörténjenek.
Szóval festettem egy képet. Érdekes számomra az IoT-ról, az ábrán egy aggregálási tartományról beszélek, és rámutatom, hogy vannak aldomainek. Tehát el tudod képzelni, hogy az IoT 1. domain itt valamiféle autó, a 2. és a 3. és a 4. domain pedig valamiféle autó, és helyben összesíti az adatokat, helyi adatokat fog futtatni ezen adatok alapján, és különféle dolgokat cselekszik. De ahhoz, hogy elemzést kapjon az összes autóról, adatot kell továbbítania a központba, nem feltétlenül az összes adatot, hanem a központban kell összesítenie. És ha ezen gondolkodik, akkor érdemes lehet sok-sok különböző összesítő domain rendelkeznie ugyanazon tárgyak internete tárgyához. És maga a domain tovább aggregálódhat. Tehát rendelkezhet ezzel az ismétlődő hierarchiával. És alapjában véve egy hihetetlenül összetett hálózat van. Sokkal összetettebb, mint bármi más, amire korábban kellett volna.
Itt van egy megjegyzés. Minden hálózati csomópont, beleértve a levélcsomópontokat is, lehet adatkészítő, adattároló és feldolgozó pont. És ez megadja neked a terjesztés lehetőségét, mint amilyet még nem látottunk. Dez egy kicsit többet fog beszélni erről, ezért továbbmegyek erre a pontra. Miután a dolgok internetén vagyunk, és az adatok valójában eseményekké váltak, ennek a dianak a lényege csak azt jelzi, hogy szabványosítanunk kell az eseményeket. Legalább ezt meg kell tennünk. Megkapjuk az esemény bekövetkezésének idejét, a földrajzi elhelyezkedést, az azt létrehozó folyamat virtuális vagy logikai helyét, az azt létrehozó forráseszközt, az eszköz azonosítóját, hogy pontosan tudjuk, melyik forráseszköz készítette, a tulajdonjog az adatok és a szereplők, azok az emberek, akiknek joguk van az adatokat valamilyen módon használni, akkor az engedélyeket magával kell vinni, ami azt jelenti, hogy valójában biztonságot kell viselniük, és akkor ott van maga az adat. És ha ezt megnézed, rájössz, hogy tudod, még ha van egy érzékelő is, amely nem más, mint másodpercenként jelent meg valami hőmérsékletet, valójában nagyon sok adat van, csak azért, hogy pontosan azonosítsa az adatokat származott, és mi ez valójában. Mellesleg, ez nem kimerítő lista.
Tehát, a jövőbeli informatikai táj szempontjából, úgy látom, hogy ez: hogy nem csak a dolgok internetéről van szó, hanem arról is, hogy események által vezérelt tevékenységek világában leszünk, és ezért eseményvezérelt architektúrákkal kell rendelkezniük, és ezeknek az építményeknek nagy hálózatokat kell átfedniük. És a másik dolog a valós idejű mindent, nem feltétlenül szükséges, hogy valós időben működjünk, hanem van valami, amit üzleti időnek nevezem, az az idő, amelyen belül az adatokat ténylegesen ki kell szolgáltatni és készen kell tartani. feldolgozni. Valószínűleg ez nem egy milliszekundum a létrehozása után. De minden adathoz mindig van ilyen idő, és ha van esemény-vezérelt architektúrája, akkor ésszerűbbé válik a világ működésének valós idejű megközelítése.
Tehát forraljuk le, mert amiről valójában beszélünk, az IoT elemzése. Mindezek ellenére még mindig van ideje a betekintésre, és nem csak a betekintés ideje, a betekintést cselekedetekkel kell követni. Tehát, a betekintésre és a cselekvésre fordított idő az, amire fel tudom forgatni. Ezt követően átadom a labdát Deznek.
Dez Blanchfield: Köszönöm, Robin. Éleslátó, mint mindig. Szeretem azt a tényt, hogy nehéz minden lépést követni, de minden tőlem telhetőt megteszek.
Az egyik dolog, amit látok, és ezt gyakran szórakoztatom, hogy őszinte legyek, és nem meghatározó és negatív formában, de sok aggodalom és pánik merül fel a világot átvevő dolgok internetével kapcsolatban. és réselni fog minket, és el fogja veszíteni az adatait, tehát szeretnék egy pillantást vetni néhány olyan dologra, amelyet már az elmúlt két-három évtizedben megtettünk, és amely közeli fax volt az internet számára a dolgokról, de talán nem egészen ugyanolyan mértékben. És csak annak érdekében, hogy megmutassuk magunknak, hogy valójában itt voltunk, és megoldottunk néhány problémát, nem ilyen mértékű és nem ilyen sebességgel. Mert ez azt jelenti, hogy valóban meg tudjuk oldani a problémát, és tudjuk, hogy mi a válaszok némelyike; éppen le kellett vadásznunk és újra alkalmaznunk a korábbi tapasztalatainkat. És tudom, hogy ez a teljes beszélgetés, amelyet most kezdünk, és rengeteg szórakoztató dolgot kaptam, hogy csak beszélgethessek a Kérdések és válaszok részben.
De amikor a kör körüli dolgok internetére gondolunk, akkor nagy a centralizáció egy olyan tervezési szintre, amelyet már a korai napokban megírtunk. Például, a fitbites eszközök általában egy központi helyre mennek, és valószínűleg valahol egy felhőplatformon helyezkednek el, és az összes ilyen eszköz adatai ugyanahhoz, mondjuk csak egy halom elülső oldalához érkeznek, beleértve az internetet és alkalmazás- és adat-alapú szolgáltatások. De az idő múlásával ez a méretarány újragondolást igényel, hogy megbirkózzon a rájuk érkező adatmennyiséggel, és azt újratervezik, hogy így a veremnek több felülete és több példánya lesz több helyszínen és régióban. És ezt látjuk, és számos példát adok neked, amelyeket megvitathatunk.
Ennek kulcseleme az, hogy bár láttuk ezeket a megoldásokat, amelyekre éppen kiterjedni fogok, az adatok és a hálózati forgalom mérete és mennyisége, amelyet a tárgyak internete generál, sürgősen vált át a központi véleményem szerint az elosztott architektúrákra, és ezt tudjuk, de nem feltétlenül értettük meg, mi a megoldás. Amikor arra gondolunk, hogy mi a tárgyak internete, ez egy nagyszabású hálózati modell. Sok és sok dolog zajt. Olyan dolgok, amelyek nem egészen a közelmúltig zajt keltettek. És valójában azt hiszem, tegnap volt, viccelődve beszéltem a kötegről, de elmentem vásárolni egy új kenyérpirítót, és olyan opcióval járt, amely különféle dolgokat mondhat el nekem, beleértve azt is, amikor tisztításra szorult. És egy új, nagyon hasonló funkcióval rendelkező mikrohullámú sütő, amely valószínűleg akár egy alkalmazást is pingelhet a telefonomra, hogy mondjam, hogy most már megtörtént a melegítés. És nagyon nagy az a véleményem, hogy ha van néhány dolog, amit nem akarok velem beszélni, akkor ez a hűtőm, a mikrohullámú sütő és a kenyérpirító. Nagyon jól érzem, hogy hülye eszközök. De nemrég kaptam egy új autót, egy kicsi Audiot, és ez velem beszél, és nagyon elégedett vagyok vele, mert az a dolgok, amiről beszél, érdekes. Mint például a térképek valós időben történő frissítése, hogy megmondja, hol lehet jobb útvonal az A pontról a B pontra, mivel különféle mechanizmusok révén érzékeli a forgalmat az elküldött adatokkal.
Megvan ez a dia. Már láttuk, hogy a nagy volumenű hálózati modellek átállást igényelnek az adatfeldolgozó és elemző modellek központi helyett elosztott rögzítésére és továbbítására. Láttuk, hogy a három kis grafikon ábrázolása ott van a jobb szélén, ahol van, a háromból balra, ott van egy központi modell, ahol minden apró eszköz a központi helyre kerül, és adatokat gyűjtenek és a skála nem olyan nagy, nagyon jól megbirkóznak velük. Közepén van egy kissé decentralizált modell, hub és beszéd, erre gondolok, hogy a következő generációban szükségünk lesz a dolgok internetére. És akkor a jobb oldalon megkaptuk ezt a teljesen elosztott és hálózati hálózatot, ahol a dolgok internetje és a gépek között a gép a jövőben nagyon rövid távon megy, de mi nem vagyunk ott számos okból. És elsősorban azért, mert eddig a kommunikáció nagy részében internetes platformokat használunk, és valójában még nem építettünk fel egy második hálózatot, amely sok ilyen adatot hordozna.
Vannak olyan második hálózatok is, amelyek már léteznek, mint például a Batelco hálózat. Sokan nem gondolkodnak azon a tényen, hogy a távközlési hálózatok nem internet. Az internet sok szempontból nagyon különálló dolog. Az adatokat okostelefonokról továbbítják a telefonhálózatokon keresztül, majd a telefonhálózatokon keresztül és általában az internetre, ahol ténylegesen két hálózatba sorolják őket. De teljesen lehetséges és valószínű, hogy a dolgok internetéhez másik hálózatra lesz szükség. Az ipari internetről általában mint egy témáról beszélünk, amelyet most nem mélyítünk be, de alapvetően egy másik hálózatról beszélünk, amelyet kifejezetten az adatok vagy a dolgok internetének szállítására és a gépek közötti gépekre fejlesztettek ki. kommunikáció.
De néhány olyan példa, amellyel megoszthattam volna ahol nagy volumenű hálózatok és az elosztott adatok nagyon jól működnek, olyan dolgok, mint az internet. Az internetet az első naptól kezdve kifejezetten úgy tervezték és építették fel, hogy képes legyen túlélni a nukleáris háborút. Ha az Egyesült Államok egyes részeit felrobbantják, az internetet úgy alakították ki, hogy az adatok továbbra is az internet körül mozoghassanak csomagvesztés nélkül olyan okok miatt, hogy még mindig kapcsolatban vagyunk. És ez még ma is létezik globális szinten. Az internetnek több lehetősége van a redundancia és a csomagok irányítása körül. És valójában az internetet a BGP, a Border Gateway Protocol és a Border Gateway Protocol (BGP) nevű elem vezérli, és kifejezetten arra készül, hogy megbirkózzon egy útválasztóval, vagy a kapcsolóval, vagy a kiszolgálóval. Ha e-mailt küld vagy fogad, ha három e-mailt küld egymás után, akkor nincs garancia arra, hogy az e-mailek mindegyike ugyanazt az útvonalat követi ugyanabba a végcélba. Különböző okokból mozoghatnak az internet különböző részein. Leállhat egy leállás, lehetnek karbantartási ablakok, ahol a dolgokat offline állapotban lehet frissíteni, csak torlódások lehetnek a hálózatban, és láthatjuk, hogy olyan dolgok vannak, mint például az autókkal és a tömegközlekedéssel ellátott forgalmi hálózatok, valamint a hajók és repülőgépek. Minden nap tartalmakat kapunk eszközökhöz, például laptopokhoz, táblagépekhez és számítógépekhez böngészőkön keresztül és így tovább minden nap a tartalomszolgáltató hálózatokon keresztül. A tartalomszolgáltató hálózatok arról szólnak, hogy tartalmakat másolnak az elsődleges kiszolgálói platformról, például a webszerverről, és annak és a gyorsítótárnak a másolatát kis mennyiségben átviszik a hálózat szélére, és csak a szélső legközelebbi részéről továbbítják Önnek.
Spam elleni küzdelem és kiberbiztonság - ha egy spam esemény Kanadában zajlik, és a Microsoft észleli azt, és látja, hogy ugyanazon e-mail sok példányát küldik egy véletlenszerű embercsoportnak, akkor ellenőrző összegeket készítenek, az üzenet aláírása létrehozott és bekerült a hálózatba, és azonnal elterjedt. És így az e-mail soha nem kerül a beérkező levelek mappájába, vagy ha igen, akkor azonnal spamként fogják megcímkézni, mert valahol a hálózat szélén észlelték. Tehát a hálózat szélének más részeire elmondják ezt a spam üzenet aláírást, és az adatbázisba kerül, és ha ezek az üzenetek megjelennek a bolygó másik oldalán, észleljük őket, és tudjuk, hogy spam. Ugyanez vonatkozik a kiberbiztonságra. A hacket, amely a bolygó egyik oldalán zajlik, észleljük, regisztráljuk és térképezzük, és a hálózat másik részén hirtelen legyőzhetjük, és elkészíthetjük a szabályokat és az irányelveket, és megváltoztathatjuk, hogy meg tudjuk akadályozni. Különösen az olyan új hatásokkal, mint a szolgáltatásmegtagadás vagy az elosztott szolgáltatásmegtagadás, ahol gépek ezreit használják egy központi webhely támadására.
A Bitcoin és a blokklánc alapértelmezés szerint egy elosztott főkönyv, a blokklánc, és a hálózat esetleges áramkimaradásaival vagy megszakításával jár. Csalások felderítése és megelőzése, energiaellátás és vízellátás - látjuk, hogy ismeri az energiahálózatot, ha a hálózat egyik része faterületre húz és pólusot és vezetéket vesz ki, a házam továbbra is energiát kap. Még csak nem is tudok róla, gyakran nem is látom a hírekben. És mindannyian hozzászoktunk a közlekedési hálózatokhoz, ahol eredetileg volt egy centralizált modell: „Az összes út Rómába vezetett”, ahogy mondják, majd végül a decentralizált modellre kellett mennünk hubokkal és küllőkkel, majd elmentünk egy hálószemű hálózathoz, ahol a város egyik oldaláról a másikra eljuthatunk különböző hálózati útvonalakon és különböző kereszteződéseken keresztül. Tehát azt látjuk, hogy ezt a központosított modellt, amit most a dolgok internetével csinálunk, a hálózat szélére kell tolnunk. És ez az analitikára minden eddiginél jobban vonatkozik, vagyis az elemzést ki kell tolnunk a hálózatba. És ehhez teljesen új megközelítésre van szükség az adatok és az adatfolyamok elérése és feldolgozása szempontjából, véleményem szerint. Egy olyan forgatókönyvről beszélünk, amelyben azt hiszem, hogy korlátozott intelligenciát látunk kihúzni a hálózat szélére az internethez csatlakoztatott eszközökön, de hamarosan látni fogjuk, hogy ezek az eszközök növelik az intelligenciát és növelik az általuk igényelt elemzési szintet. csinálni. És ennek eredményeként ezeket a szagot tovább kell továbbvinni a hálózaton keresztül.
Például az intelligens alkalmazások és a közösségi média - ha a szociális médiare és az egyes intelligens alkalmazásokra gondolunk, akkor is nagyon központi szerepet játszanak. Tudod, csak két vagy három adatközpont van a Facebook kedvelőinek. A Google sokkal decentralizáltabbá vált, ám a világon még mindig korlátozott számú adatközpont létezik. Akkor, amikor a tartalom testreszabásáról gondolkodunk, nagyon helyi szinten kell gondolkodnunk. Nagyon sok ez történik a böngészőjében vagy a helyi tartalomszolgáltatási hálózati rétegben. És az egészségügyi és fitnesz-követőkre gondolunk - a tőlük összegyűjtött adatok nagy részét lokálisan elemezzük, így a Garmin és a Fitbit eszközök új verziói, amelyeket a csuklójára helyeztek, okosabbá és okosabbá válnak az eszközön . Most nem küldik vissza a pulzusának összes adatát egy központi kiszolgálóra, hogy megpróbálják megszervezni az elemzést; az intelligenciát közvetlenül a készülékbe építik. Az autós navigációnál régen az autó folyamatosan frissítéseket és térképeket kapna egy központi helyről, most a szagok vannak a kocsiban, és az autó önmagában hoz döntéseket, és végül az autók összekapcsolódnak. Az autók valamilyen formájú vezeték nélküli hálózatokon keresztül beszélnek egymással, amely lehet a következő generáció 3G vagy 4G vezeték nélküli hálózatán keresztül, de végül eszközről-eszközre vált. És az egyetlen módja annak, hogy megbirkózzunk ezzel a mennyiséggel, az az, hogy okosabbá tesszük az eszközöket.
Már vannak vészhelyzeti figyelmeztető rendszerek, amelyek helyileg gyűjtik az információkat, és ezeket központilag vagy hálóba továbbítják, és döntéseket hoznak a helyben zajló eseményekről. Például Japánban vannak olyan alkalmazások, amelyeket az emberek okostelefonjukon futtatnak az okostelefon gyorsulásmérőivel. Az okostelefon gyorsulásmérői érzékelik a rezgéseket és a mozgást, és meg tudják határozni a különbséget a normál napi mozgás és a földrengés remegései és sokkjai között. És ez a telefon azonnal elkezdi riasztani, helyben. A tényleges alkalmazás tudja, hogy érzékeli a földrengéseket. De megosztja ezeket az adatokat egy hálózaton keresztül egy elosztott hub és beszédes modellben, hogy az Ön közelében lévő személyek azonnal vagy a lehető leghamarabb figyelmeztetést kapjanak, amikor az adatok áramlik a hálózaton. És végül, amikor eljut egy központi helyre vagy a központi hely elosztott példányára, visszahúzza azokat az embereket, akik nem a közvetlen közelében vannak, akik még nem fedezték fel a bolygó mozgását, de figyelmeztetni kell őket, mert talán szökőár jön.
És az intelligens városi infrastruktúra - az intelligens infrastruktúra fogalma, már építjük az értelmet intelligens épületekbe és intelligens infrastruktúrába. Valójában tegnap parkoltam az autómat a városban egy új területen, ahol a város egy részét felújítják és újjáépítik. És megismételték az összes utcát, és vannak érzékelők az utcákon, és a tényleges parkolómérő tudja, hogy amikor autóval hajtottam be, akkor azt is tudja, amikor elmegyek frissíteni a két órás korlátot, az autó nem mozog, és valójában nem engedné, hogy feltöltsem és további két órán keresztül maradjak. Be kellett mennem a kocsiba, kihúznom a teret, majd visszahúzom, hogy becsapjam, hogy még két órán keresztül ott maradjak. De ami érdekes, hogy végül arra a pontra megyünk, ahol nemcsak a területre belépő autót lokális érzékelőként érzékeljük, hanem olyan optikai jellemzőket, mint például az optikai jellemzők, ahol a felismerést a rendszámtáblát néző kamerák fogják alkalmazni, és ez tudni fogja amit valójában csak kihúztam, visszahúztam és becsaptam, és ez csak nem engedi megújulni, és továbbmozdulok. És akkor elosztja ezeket az adatokat, és megbizonyosodik arról, hogy máshol nem tudom megtenni, és folyamatosan becsapom a hálózatot is. Mivel a természetéből adódóan okosabbá kell válnia, különben mindannyian továbbra is bolondozzuk.
Van egy példa erre, hogy valójában személyesen éltem ott, ahol a tűzfaltechnológiában, a 80-as évek végén és a 90-es évek elején, a Check Point FireWall-1 nevű termék volt. Egy nagyon egyszerű tűzfaltechnológia, amelyet szabályok létrehozására és bizonyos dolgokra épített szabályok és szabályok elkészítéséhez használtunk, hogy azt mondjuk, hogy bizonyos portokon áthaladó forgalom és IP-címek és hálózatok átjutnak egymáshoz, illetve az onnan, a webes forgalom az egyik helyről a másikra, a böngészőtől és az ügyféltől a szerver végéig. Ezt a problémát úgy oldottuk meg, hogy valójában kivettük a logikát a tűzfalakról, és ténylegesen áthelyeztük az ASIC-be, az alkalmazás-specifikus integrált áramkörbe. Az Ethernet kapcsolók portjait vezérelte. Megállapítottuk, hogy a kiszolgálószámítógépek, azaz azok a számítógépek, amelyeket ténylegesen kiszolgálókként használtak tűzfalakként történő döntések meghozatalára, nem voltak elég nagyok ahhoz, hogy minden egyes csomagellenőrzés során kezeljék a rajtuk átmenő forgalom mennyiségét. A problémát úgy oldottuk meg, hogy a csomagellenőrzéshez és az internetes észleléshez szükséges logikát áthelyeztük a hálózati kapcsolókba, amelyek képesek voltak kezelni a hálózati szinten átmenő adatmennyiséget. Nem kellett aggódnunk központosított tűzfalakkal, és kihelyeztük a kapcsolókra.
És tehát arra készítettük a gyártókat, hogy képessé tegyük az utak, szabályok és irányelvek beillesztésére az Ethernet kapcsolóra, hogy az aktuális Ethernet port szintjén, és talán sok ember a medencében nem ismeri ezt, mert mi mindenki egy vezeték nélküli világban él, de egyszer csak mindent el kellett csatlakoztatnia az Ethernet-en keresztül. Az Ethernet port szintjén most ellenőriztük a csomagokat, hogy meg tudjuk-e nézni a csomagok átlépését a kapcsolóba és a hálózatba. Ennek egy részét oldjuk meg annak a kihívásnak a körül, amelyben az adatokat a hálózatban - különösen az IRT eszközökről - rögzítik, megvizsgálják, elemzik, és valószínűleg valós időben végeznek elemzéseket, hogy döntéseket hozzanak róla. És részben betekintést szerezhet az üzleti intelligencia terén, és információt szerezhet arról, hogy az emberek hogyan hoznak jobb döntéseket, valamint más elemzéseket és teljesítményt nyújtanak a gépek közötti gépi szintű dolgokhoz, ahol az eszközök eszközökkel beszélnek és döntéseket hoznak.
És ez a tendencia lesz, amelyet a közeljövőben kell megoldanunk, mert ha nem, akkor csak a zaj pusztulásával járunk. És láttuk a nagy adatvilágban, láttuk olyan dolgokat, mint például az adattavak adatmocsarakká alakulnak, amelyeknek csak a zaj pusztulása áll elő, és még nem tudtuk kitalálni, hogyan lehet központilag megoldani a feldolgozási elemzéseket. divat. Ha nem oldjuk meg ezt a problémát, véleményem szerint az IoT-vel azonnal, és nagyon gyorsan megkapjuk a platformmegoldást, akkor nagyon-nagyon rossz helyre fogunk kerülni.
És ezt szem előtt tartva, befejezem az álláspontomat, amely szerint azt hiszem, hogy a nagy adat- és elemzési térben jelenleg zajló egyik legnagyobb változást az internet hatására való azonnali reagálás vezérli. a nagy volumenű és a valós idejű elemzés területén, mivel az elemzést ki kell vonnunk a hálózatba, majd végül a hálózat szélére, hogy megbirkózzunk annak puszta volumenével, és csak feldolgozzuk. És végül, remélhetőleg, az intelligenciát a hálózatba és a hálózat szélére tesszük egy hub-ban és beszéltünk olyan modellbe, hogy valóban kezeljük és betekintést nyerjünk valós időben, és értéket szerezzünk belőle. És ezzel átadom a vendégünknek, és megnézem, hová vezet ez a beszélgetés.
Shawn Rogers: Nagyon köszönöm. Ez Shawn Rogers a Dell Statistica-tól, és fiú, csak kezdetben teljesen egyetértek az összes fő témával, amelyet itt érintettek. És Rebecca, azzal az elgondolással kezdtél, hogy tudod, ezek az adatok nem újak, és számomra figyelemre méltó, hogy mennyi időt és energiát költ az adatok, az adatok és az IoT adatainak megbeszélése. És ez minden bizonnyal releváns, tudod, Robin jó hangot adott, még akkor is, ha valami nagyon egyszerűt csinálsz, és másodpercenként egyszer bekapcsolsz egy termosztátba, tudod, ezt a nap 24 órájában csinálod, és valójában tudod, néhány érdekes adat kihívás. De tudod, hogy végül - és azt gondolom, hogy az ipar sok ember ilyen módon beszél az adatokról -, hogy ez nem igazán annyira érdekes, és Rebecca szempontjából jó, hosszú ideje zajlik, de a múltban nem tudtunk nagy mértékben kihasználni azt. És azt hiszem, hogy a fejlett elemző ipar és általában a BI ipar valóban megkezdi a fejét az IoT felé. És Dez, a végső pontban, ez a nagy adatközösség részét képező kihívások egyikének vagy egyikének, azt hiszem, nagyon igaz. Úgy gondolom, hogy mindenki nagyon izgatott, hogy mit tehetünk az ilyen típusú adatokkal, de ugyanakkor, ha nem tudjuk kitalálni, hogyan lehet betekintést alkalmazni, cselekednünk, és tudjuk, hogy elemzéseket szerezzen ott, ahol az adatok vannak, azt hiszem olyan kihívásokkal kell számolnunk, amelyeket az emberek nem látnak valóban az utat.
Mindezekkel összhangban, a fejlett elemzési térben nagy rajongók vagyunk annak, amit gondolunk, mi történhet az IoT-adatokkal, különösen, ha az elemzést alkalmazzuk rá. És nagyon sok információ található ezen a csúszdán, és hagyom, hogy mindenki vadásszon és körbejárjon, de ha különféle ágazatokat nézel, mint például a kiskereskedelem a szélső jobb oldalán, akkor látja, hogy a lehetőségek körül rejlik, hogy innovatívabbak vagy valamilyenek A költségmegtakarítás vagy a folyamat optimalizálása vagy fejlesztése nagyon fontos, és ehhez sok felhasználási esetet látnak. Ha nézi, tudod, balról jobbra a dián, látni fogja, hogy az egyes iparágak miként követelnek új képességeket és új megkülönböztetési lehetőségeket maguk számára, amikor az elemzést alkalmazzák az IoT-n. És azt hiszem, hogy az a lényeg, hogy ha arra akarsz menni, hogy ezen az úton járjon, akkor nemcsak az adatokra kell aggódnod, amint már tárgyaltunk, és az építészetre, hanem meg kell vizsgálnunk, hogy a alkalmazza rá az elemzést, és ahol az elemzésnek meg kell történnie.
Sokan közülünk a mai hívás során, tudod, Robin és én nagyon régóta ismerjük egymást, és számtalan beszélgetést folytattunk a múltban a hagyományos architektúrákról, a központosított adatbázisok vagy vállalati adattárházak környékéről és így tovább, és amint Az utóbbi évtizedben úgy találtunk, hogy elég jó munkát végezünk ezen infrastruktúrák korlátjainak meghosszabbításán. És nem annyira kitartóak vagy annyira erősek, mint szeretnénk őket ma, hogy támogassák az összes nagyszerű elemzést, amelyet az információra alkalmazunk, és természetesen az információ megsemmisíti az architektúrát is, tudod, az adatok sebessége, az adatmennyiség és így tovább határozottan meghúzza néhány hagyományosabb megközelítésünk és stratégiánk korlátozásait az ilyen típusú munkára. És úgy gondolom, hogy ez egyre inkább felhívja a figyelmet arra, hogy a vállalatoknak agilisabbnak és talán rugalmasabbnak kell lenniük erről, és ez a rész, azt hiszem, szeretnék egy kicsit beszélni az IoT oldaláról.
Mielőtt ezt megtenném, szánok egy pillanatra, hogy hagyom a hívásban részt vevőket, adjunk egy kis hátteret arról, hogy mi a Statistica és mit csinálunk. Amint az a dia címében látható, a Statistica prediktív elemzés, nagy adat és megjelenítés az IoT platformon. Maga a termék kicsit több mint 30 éve van, és versenyben állunk a piacon lévő más vezetőkkel, akikkel valószínűleg ismerkedünk azzal, hogy prediktív elemzéseket, fejlett elemzéseket alkalmazunk az adatokra. Láttuk annak a lehetőségét, hogy kibővítjük az analitikai elemzés helyét, és egy ideje elkezdtünk dolgozni néhány technológián, amelyek meglehetősen jól pozícionáltak minket, hogy kihasználhassuk azt, amit Dez és Robin ma is beszéltünk, ez az új megközelítés és hol fogja elhelyezni az elemzést, és hogyan fogja feldolgozni az adatokkal. Ezen túlmenően más dolgok is vannak, amelyeket meg kell tudnod kezelni a platformon, és amint említettem, a Statistica jó ideje a piacon volt. Nagyon jók vagyunk a dolgok adatkezelési oldalán, és azt hiszem, tudod, ma még nem sokat beszéltünk az adathozzáférésről, de képesek vagyunk elérni ezeket a különféle hálózatokat, és megszerezni a megfelelő adatokat a a megfelelő idő egyre érdekesebbé és fontosabbá válik a végfelhasználók számára.
Végül itt még egy darabot kommentálok, mivel Dez jó megjegyzést tett magukról a hálózatokról, mivel bizonyos szintű ellenőrzést és biztonságot élvez az analitikus modellek felett az egész környezetben, és azt, hogy hogyan kötik magukat az adatokhoz, és ezek nagyon fontosak. Amikor néhány évvel ezelőtt beléptem az iparba - gondolom, hogy ezen a ponton közel húsz -, amikor a fejlett elemzésről beszéltünk, ez nagyon kurátora volt. A szervezetben csak néhány ember kezét tartotta rajta, telepítették, és szükség szerint választ adtak az embereknek, vagy betekintést nyújtottak. Ez valóban változik, és látjuk, hogy sok ember egy vagy több változatos és rugalmasabb módszerrel dolgozott ki az adatok elérésére, az adatok biztonságának és irányításának alkalmazására, majd azokra való együttműködésre. Ez néhány fontos dolog, amelyet a Dell Statistica vizsgál.
De bele akarok merülni a témához, amely kissé közelebb áll a mai címhez, azaz, hogyan kell kezelnünk azokat az adatokat, amelyek a dolgok internetéből származnak, és mit érdemes megkeresni, amikor különféle megoldásokat keres. A csúszda, amelyet most felöttem fel, egyfajta hagyományos nézet, és Dez és Robin egyaránt megérintette ezt, tudod, ez az ötlet egy szenzorral való beszélgetésről, legyen szó autóról, vagy kenyérpirítóról, vagy szélturbina, vagy mi van velünk, majd ezeket az adatokat az adatforrásból a hálózatba visszatelepítik egy központi konfigurációba, ahogyan Dez megemlítette. És hálózata elég jól működik, és sok vállalat bekerül az IoT-területbe, eredetileg kezdve ezzel a modellel.
A másik dolog, amivel együtt jött, ha a diák aljára nézünk, az az ötlet, hogy más hagyományos adatforrásokat vegyenek ki, kiegészítsék az IoT-adatokat, majd egy ilyen típusú magon, függetlenül attól, hogy a magod adatközpont-e vagy sem Lehet, hogy a felhőben van, nem igazán számít, akkor elvesz egy olyan terméket, mint a Statistica, majd elemzést alkalmaz rajta ezen a ponton, majd ezeket a betekintést nyújtja jobbra a fogyasztók számára. És azt hiszem, hogy ezen a ponton asztali tétek vannak. Ezt meg kell tennie, és elegendő nyitott architektúrával kell rendelkeznie egy fejlett elemző platformon, és beszélni kell ezekkel, különféle adatforrásokkal, ezekkel az érzékelőkkel és ezekkel a különböző rendeltetési helyekkel, ahol megvan az adat. És azt hiszem, hogy ezt meg kell tudni csinálni, és azt hiszem, hogy igaznak találja, hogy a piac számos vezetõje képes ilyen típusú dolgokat megtenni. Itt, a Statistica-nál erről mint elemző elemről beszélünk. Keresse meg az adatokat, hozza vissza az adatokat a magba, dolgozza fel, ha szükséges vagy ha előnyös, adjon hozzá további adatokat, végezze el az elemzését, majd ossza meg ezeket az információkat cselekvés vagy betekintés céljából.
És úgy gondolom, hogy ezek mindenképpen funkcionális szempontból vannak, valószínűleg mindannyian egyetértünk abban, hogy tudod, ez puszta szükségszerűség, és ezt mindenkinek meg kell tennie. Ahol egyre érdekesebbé válik, akkor ha nagy mennyiségű adat van, tudod, hogy különféle adatforrásokból származnak, például az IoT érzékelőkből, amint már említettem, függetlenül attól, hogy ez egy autó, a biztonsági kamera, vagy a gyártási folyamat - azzal az előnnyel jár, hogy elvégezheti az elemzést ott, ahol az adatokat ténylegesen előállítják. És azt hiszem, hogy a legtöbb ember számára, amikor elkezdjük az elemzőt a mag felől a peremre mozgatni, az a képesség, hogy eloszlassa a felmerülő adat kihívásokat, és Dez és Robin ezt valószínűleg a végén kommentálják. ma, de úgy gondolom, hogy képesnek kell lennie a szélén lévő adatok megfigyelésére és az azokkal kapcsolatos intézkedések megtételére, így nem mindig szükséges az összes ilyen adatot átvinni a hálózatra. Robin erről az általa készített építészeti képekben beszélt, amelyekben megtalálhatók ezek a különböző források, de általában van néhány összesítési pont. Az aggregálási pont, amelyet gyakran látunk, vagy érzékelő szintjén van, de még gyakrabban egy átjáró szintjén. És ezek az átjárók valamilyen közvetítőként léteznek az adatforrásokból származó adatáramlásban, mielőtt visszatérnének a maghoz.
Az egyik lehetőség, amellyel a Dell Statistica kihasználta azt a képességünket, hogy egy modellt exportáljon a központosított fejlett elemző platformunkból, hogy modellt készítsünk, majd azt végre lehessen hajtani egy másik platformon, például átjárón vagy belül adatbázisból, vagy mi van. És azt hiszem, hogy az a rugalmasság, amely nekünk adódik, valójában az a mai érdekes beszélgetés, amely érdekes pont, hogy van-e ma az infrastruktúrádban? Képes-e az elemzőt oda mozgatni, ahol az adatok élnek, szemben az adatok mindig azzal, ahova az elemzője él? És erre összpontosít a Statistica egy ideje, és ha közelebb nézi a diákat, látni fogja, hogy ott van más technológia is a testvéreinknél, a Dell Boomi-nál. A Dell Boomi adatintegrációs és alkalmazásintegrációs platformja a felhőben, és valójában a Dell Boomi-t használjuk emberkereskedelmi eszközként, hogy modelljeinket a Dell Statistica-tól a Boomi-on keresztül és a szélső eszközökig mozgatjuk. És úgy gondoljuk, hogy ez egy agilis megközelítés, amelyet a vállalatok igényelnek, annyira tetszik, mint a verzió, amelyet egy perccel ezelőtt mutattam neked, amely az a fajta alapötlet, hogy az adatokat az érzékelőktől egészen a központban, ugyanakkor a vállalatok azt akarják, hogy képesek legyenek megtenni azt, amellyel én itt vázolok. És ennek előnye néhány szempontból, amelyeket Robin és Dez egyaránt kifejtettek, vagyis döntés hozható és cselekedhet vállalkozásának sebességén? Tudja-e mozgatni az analitikát az egyik helyről a másikra, és képes-e megtakarítani magadnak az idő, a pénz és az energia, valamint az összetettsége, hogy folyamatosan visszaszerezze az él adatait a magba.
Most először mondom, hogy néhány szélső adat mindig elég nagy érdemmel bír majd, ha értelme lenne ezeket az adatokat tárolni, megőrizni és visszavinni a hálózatába, de melyik él elemzés lehetővé teszi az a képesség, hogy olyan sebességgel hozzunk döntéseket, amelyre az adatok ténylegesen kerülnek, igaz? Hogy képesek vagyunk a betekintést és a tevékenységet olyan sebességgel alkalmazni, ahol a lehető legmagasabb az érték. És azt hiszem, hogy mindezt arra várjuk, amikor a fejlett elemzés és az IoT-adatok felhasználására kerül sor, ez a lehetőség arra, hogy az üzleti sebességgel vagy az ügyfél által igényelt sebességgel mozogjunk. Úgy gondolom, hogy álláspontunk az, hogy szerintem mindkettőt meg kell tudnod csinálni. És azt hiszem, hogy hamarosan és nagyon gyorsan, mivel egyre több vállalkozás vizsgálja meg a különféle adatkészleteket, különös tekintettel az IoT oldalára, elkezdi megnézni az eladó terét, és azt igényli, hogy mit tehet a Statistica. Ami a modell központi telepítése, amint azt évek óta hagyományosan tesszük, vagy olyan platformon történő telepítése, amely talán nem hagyományos, mint például az IoT-átjáró, és valójában képesek pontozni és analitikát alkalmazni az adatokra a szélén, az adatok előállításakor. És azt hiszem, hogy ez a beszélgetés izgalmas része itt. Mivel az a lehetőség, hogy egy elemzőt alkalmazzunk az érzékelő adatainak kiszivárgásának szélén, lehetővé teszi számunkra, hogy olyan gyorsan cselekedjünk, amire szükségünk van, de lehetővé teszi számunkra, hogy eldöntsük, vajon ezeket az adatokat azonnal vissza kell-e vezetni a magba? Összegyűjthetjük itt, majd darabokra és részekre küldhetjük vissza, és később tovább tudunk elemezni? És ezt látjuk sok vezető ügyfelünknek.
Ahogy a Dell Statistica ezt megteszi, akkor képesek vagyunk kihasználni, mondjuk például, hogy a Statistica belsejében neurális hálózatot épített fel, és a neurális hálózatot máshol akartad elhelyezni az adatkörnyezetben. Képesek vagyunk kinyomtatni azokat a modelleket és az összes nyelvet, amelyet a jobb oldali sarokban észleltünk - Java, PPML, C és SQL és így tovább, a Pythonot is beleértve, és képesek vagyunk exportálni a szkripteinket is - és amikor elmozdítja ezt a központosított platformonkat, akkor telepítheti a modellt vagy az algoritmust, bárhová is szüksége van. És amint már korábban említettem, a Dell Boomi-t használjuk arra, hogy lerakjuk és leparkoljuk, ahol futtatnunk kell, majd visszahozhatjuk az eredményeket, vagy segíthetünk az adatok visszaszerzésében, vagy az adatok összegyűjtésében, és a szabályrendszerünk segítségével cselekedhetünk. . Mindezek a dolgok egyre fontosabbá válnak, amikor elkezdjük megnézni az ilyen típusú adatokat, és újra gondolkodunk.
Ez a helyzet, amit a legtöbb telefonon fel kell majd tenni, mert nagyon drága lesz, és a hálózatának adóztatása, amint azt Dez említette, az ábrák bal oldaláról az ezen ábrák jobb oldalára helyezése idő. Nem tűnik nagyon sokat, de láttuk, hogy gyárain tízezer érzékelővel gyártanak ügyfeleket. És ha tízezer érzékelővel rendelkezik a gyárban, akkor is, ha csak ezeket elvégzi egy másodperces fajta teszteket vagy jeleket, akkor napi nyolcvannézezer adatsorról beszélünk az egyes szenzorokról. Tehát az adatok feltétlenül felhalmozódnak, és Robin egyfajta megemlítette ezt. Előzetesen megemlítettem néhány iparágot, ahol látjuk, hogy az emberek nagyon érdekes dolgokat végeznek a szoftverünk és az IoT-adatok felhasználásával: az épületautomatizálás, az energia, a közművek egy igazán fontos terület. Sok munkát látunk a rendszer optimalizálásán, még az ügyfélszolgálaton, és természetesen az általános műveleteken és karbantartáson, az energetikai létesítményeken és az automatizálás céljára szolgáló épületeken belül. És ezek a felhasználási esetek néhány, amelyek meglehetősen erőteljesek.
Azt hiszem, a kifejezés előállításakor már végeztünk él elemzést. Mint már említettem, mély gyökerek vannak a Statisticán. A társaságot közel 30 évvel ezelőtt alapították, tehát az ügyfelek jó ideje visszatérnek, akik integrálják az internet adatát az elemzésükhöz és egy ideje már működnek. Az Alliant Energy az egyik felhasználási esetünk vagy referencia-vásárlónk. És el tudod képzelni azt a problémát, amelyet egy energiaszolgáltató vállalat egy fizikai üzemmel kapcsolatban. A fizikai üzem téglafalain túli átméretezés nehéz, ezért az energiaszolgáltatók, mint például az Alliant, módszereket keresnek energiatermelésük optimalizálására, alapvetően javítva a gyártási folyamatot, és optimalizálva azt a legmagasabb szintre. És a Statisticát használják a kemencék kezelésére növényeikben. És mindannyiunk számára, akik visszatérünk a korai napjainkba a tudományos órákban, mindannyian tudjuk, hogy a kemencék hőt generálnak, a hő gőzt generál, a turbinák forognak, villamos energiát kapunk. Az Allianthoz hasonló cégek problémája annak optimalizálása, hogy a dolgok melegszenek és égjenek a nagy ciklonos kemencékben. És a teljesítmény optimalizálása a szennyezés, a szén-dioxid kiszorítás stb. Többletköltségeinek elkerülése érdekében. Tehát képesnek kell lennie arra, hogy figyelemmel kísérje az egyik ilyen ciklonkemence belsejét az összes ilyen eszközzel, érzékelővel, majd az összes érzékelő adatot átvegye, és folyamatosan változtasson az energia folyamatában. És pontosan ez az, amit a Statistica 2007 óta csinál az Alliant számára, még mielőtt az IoT kifejezés szuper népszerű volt.
Rebecca korai érvelése szerint az adatok minden bizonnyal nem újak. Az az izgalmas dolog, ahol meg lehet dolgozni és helyesen használható. Kicsit beszéltünk az egészségügyről a mai hívás előtti szakaszban, és mindenféle alkalmazást látunk az emberek számára, például a jobb beteggondozás, a megelőző karbantartás, az ellátási lánc menedzsmentje és az egészségügyi ellátás hatékonyságának javítása érdekében. És ez meglehetősen folyamatos, és nagyon sokféle felhasználási eset létezik. Az egyik, amire itt a Statistica-n nagyon büszkék vagyunk, az ügyfelünk, a Shire Biopharmaceuticals. És Shire speciális gyógyszereket készít igazán nehezen kezelhető betegségek esetén. És amikor egy gyógyszercsomagot készítenek ügyfeleik számára, ez egy rendkívül drága folyamat, és ez a rendkívül drága folyamat is időt vesz igénybe. Ha egy gyártási folyamatra gondolunk, amikor látjuk, hogy a kihívások az összes adatot egységesítik, elég rugalmasak lehetnek az adatok rendszerbe helyezésének különböző módjai között, az információk érvényesítése, majd előrejelzés arra vonatkozóan, hogyan segítünk az ügyfelet. És azok a folyamatok, amelyek az információ legnagyobb részét a gyártórendszereinkből, és természetesen az ezeket a gyártórendszereket vezérlő eszközöket és érzékelőket vonják le. Ez nagyszerű alkalom arra, hogy a vállalatok hogyan kerülik el a veszteségeket, és optimalizálják gyártási folyamataikat érzékelő adatok, IoT adatok és folyamataik rendszeres adatainak kombinációjával.
Tehát tudod, jó példa arra, hogy a gyártás, és különösen a csúcstechnológiás gyártás az egészségügyi ágazat számára előnyös az ilyen típusú munka és adatok körül. Azt hiszem, van még néhány más pontom, amelyet szeretnék feltenni, mielőtt betekerném és visszaadom Deznek és Robinnak. De tudod, azt hiszem, hogy az a gondolat, hogy az analitikus elemét bárhol el tudjuk helyezni a környezetében, valami rendkívül fontos szerepet játszik a legtöbb vállalat számára. A forrásoktól a központi helyekre történő, az ETL-adatok hagyományos formátumához való ragaszkodás mindig helyet fog szerezni a stratégiájában, de nem ez az egyetlen stratégia. Ma sokkal rugalmasabban kell megközelíteni a dolgokat. Az általam említett biztonság alkalmazása érdekében kerülje el a hálózat adóztatását, hogy képes legyen kezelni és kiszűrni az adatokat a széleiből származó adatok alapján, és meghatározza, mely adatokat érdemes hosszú távon megőrizni, milyen adatokat érdemes átvinni hálózatunkba, vagy milyen adatokat elemezni kell a létrehozásukkor, hogy a lehető legjobb döntéseket hozzuk. Ezt az analitikus megközelítést mindenhol és bárhol megteszik, és a Statistica számára nagyon szívünkbe vesszük, és nagyon jártasak vagyunk. És visszatér az egyik olyan diához, amelyet korábban említettem: a modellek különféle nyelveken történő exportálásának képességét, hogy azok illeszkedjenek és illeszkedjenek azokhoz a platformokhoz, ahol az adatok készülnek. És akkor természetesen van egy disztribúciós eszközük a modellekhez, ami szintén olyan, amit az asztalhoz hozunk, és amiben nagyon izgatottak vagyunk. Úgy gondolom, hogy a mai beszélgetés az, ha valóban komolyan vesszük ezeket az adatokat, amelyek rendszereinkben jó ideje voltak, és szeretnénk találni versenyképességet és innovatív szöget annak felhasználására, akkor alkalmazniuk kell valamilyen technológiát, amely lehetővé teszi, hogy megszabaduljon azoktól a korlátozó modellektől, amelyeket a múltban használtunk.
Megint az a véleményem, hogy ha IoT-t fogsz csinálni, azt hiszem, hogy képesnek kell lennie arra, hogy megtegye a lényegében, és behozza az adatokat, és illessze össze más adatokkal, és elvégezze az elemzését. Ugyanakkor ugyanolyan fontos, vagy talán még ennél is fontosabb is kell, hogy legyen ez a rugalmasság, hogy az elemzőt összerakja az adatokkal, és az elemzőt az építészet központi oldalától a széléhez mozgassa, és élvezze azokat az előnyöket, amelyeket már említettem. előtt. Ez egy kicsit arról, hogy kik vagyunk, és mit csinálunk a piacon. Nagyon izgatottak vagyunk az IoT iránt, és úgy gondoljuk, hogy határozottan el fogja érni a kort, és mindenkinek nagy lehetősége van arra, hogy az ilyen típusú adatokkal befolyásolja elemzői és kritikus folyamatait.
Rebecca Jozwiak: Shawn, köszönöm szépen, ez egy igazán fantasztikus előadás volt. És tudom, hogy Dez valószínűleg haldoklik néhány kérdést feltenni, így Dez, elengedlek először.
Dez Blanchfield: millió kérdésem van, de magában foglalom magamat, mert tudom, hogy Robinnak is lesz. Az egyik dolog, amelyet távolról és széles körben látok, egy felmerülő kérdés, és nagyon szívesen betekintést nyernék a tapasztalataimba, tekintettel arra, hogy igazad van a dolgok szívében. A szervezetek küzdenek a kihívással, és úgy tűnik, néhányuk éppen elolvasta Klaus Schwab „A negyedik ipari forradalom” című könyveit, majd pánikrohamot szenvedett. És azok, akik nem ismerik ezt a könyvet, lényegében egy úriember betekintése, Klaus Schwab által, aki szerintem egy professzor, aki az emlékezetből a Világgazdasági Fórum alapítója és ügyvezető elnöke, és a könyv lényegében a az egész, mindenütt jelen lévő internetes robbanás és általában a világ egészére gyakorolt hatás. Azok a szervezetek, amelyekkel beszélek, nem biztosak abban, hogy menjenek-e fel és korszerűsítsék a jelenlegi környezetet, vagy mindent befektessenek az új környezet, infrastruktúra és platformok építésébe. A Dell Statistica-ban is látja az embereket, hogy utólagosan átalakítsák a jelenlegi környezetet, és telepítsék az Ön platformját a meglévő infrastruktúrába, vagy látják őket, hogy összpontosítsák az összes új infrastruktúra kiépítését és felkészüljenek erre a vízlépésre?
Shawn Rogers: Tudod, lehetőségünk volt mindkét típusú ügyfelet kiszolgálni, és ameddig csak van a piacon, megkapod ezeket a lehetőségeket, hogy széles körben elterjedjenek. Van olyan ügyfeleink, akik vadonatúj fab növényeket hoztak létre az elmúlt években, és az érzékelési adatokkal, az internet tárgyalási szolgáltatásaival, az egész oldalról analízissel felruházva őket. De azt kell mondanom, hogy ügyfeleink többsége olyan emberek, akik egy ideje ezt a fajta munkát végezték, de kénytelenek voltak figyelmen kívül hagyni ezeket az adatokat. Tudod, Rebecca először rámutatott a kérdésre - ez nem új adat, ez a fajta információ nagyon hosszú idő óta sokféle formátumban rendelkezésre áll, de ahol a probléma merült fel, kapcsolódik hozzá, mozgatva, valahova hozva, ahol valami okosat végezhet vele.
És tehát azt mondanám, hogy a legtöbb vásárlónk azt nézi, amiben van ma, és Dez, Ön már korábban kifejtette, hogy ez a nagy adatforradalom része, és azt hiszem, hogy ez valójában az, hogy az egészről szól adatforradalom, ugye? Többé nem kell figyelmen kívül hagynunk bizonyos rendszer-, gyártási vagy épületautomatizálási adatokat, most megvannak a megfelelő játékok és eszközök, hogy megszerezzük, majd okos dolgokat csináljunk vele. És azt hiszem, hogy ebben a térben sok olyan járművezető van, aki ezt meghozza, és némelyikük technológiai jellegű. Tudod, a nagy adatinfrastruktúra-megoldások, mint például a Hadoop és mások, egy kicsit olcsóbbá tették és némileg könnyebben gondolkodtak az ilyen típusú információs tó létrehozásáról. És most körülnézzük a vállalkozást, hogy menjenek: „Hé, megvan az elemzés a gyártási folyamatunkban, de javulnának-e azok, ha be tudnánk adni némi betekintést ezekből a folyamatokból?” És azt hiszem, hogy ez a legtöbb ügyfeleink csinálnak. Nem annyira az alapoktól való létrehozás, hanem a már meglévő elemzés kiegészítése és optimalizálása az új adatokkal.
Dez Blanchfield: Igen, izgalmas dolgok történnek a legnagyobb iparágakban, amelyeket már láttam, és amire említetted, a hatalom és a közművek. A repülés éppen ezen a gépen megy keresztül, ahol az egyik minden idők kedvenc eszköze, amelyről rendszeresen beszélek, a Boeing 787 Dreamliner, és minden bizonnyal az Airbus megfelelője, az A330, ugyanazon az úton haladt. Olyan volt, mint hatezer érzékelő a 787-ben, amikor először kiadták, és azt hiszem, most már tizenöt ezer szenzorról beszélnek az új verziójában. És az a furcsa dolog, amikor beszélgettünk a népi népességgel, akik ebben a világban vannak, az volt az a gondolat, hogy az érzékelőket szárnyakba helyezzük és így tovább, és a 787-es modell lenyűgöző dologja egy tervezési platformon az, hogy tudod, mindent újra feltaláltak a repülő. Például a szárnyakhoz, amikor például a repülőgép tizenkét és fél méterig hajlítja a szárnyakat. De a szélsőséges esetekben a szárnyak lehajolhatnak 25 méterig. Ez a dolog úgy néz ki, mint egy madár csapkodott. De nem volt idejük megjavítani, az ezen adatok elemzésének tervezése volt, tehát vannak olyan érzékelőik, amelyek révén a LED-ek zölden és pirosra villognak, ha valami rossz történik, de valójában nem adnak mély betekintést a valós idő. És nem oldották meg az adatmennyiség körüli áthelyezésének problémáját sem, mivel az Egyesült Államok belföldi légterében napi szinten 87 400 járat található. Amikor minden repülőgép elkapja a 787 Dreamliner vásárlásait, az napi 43 petayte adatnyi adat, mert ezek a repülőgépek jelenleg mintegy fél terabyte adatot hoznak létre. És ha megszorozzuk az Egyesült Államokban napi 87 400 repülést öt vagy fél terabyte ponttal, akkor 43, 5 petayte adatot eredményezünk. Fizikailag nem tudjuk ezt mozgatni. Tehát a tervezés során ki kell tolnunk az elemzést az eszközbe.
De az egyik dolog, ami érdekes, amikor ezt az egész architektúrát átnézem - és nagyon szívesen megnézem, mit gondolsz erről - az, hogy elmozdultunk a törzsadatkezelés, az adatkezelés első alapelveinek, a mindent egy központi helyre. Van adattábláink, és akkor készítünk kis adattókat, ha úgy tetszik, azok kivonatait, amelyekben elemzést végezünk, de a szélső soron történő elosztás útján továbbadjuk az egyik dolgot, amely folyamatosan felmerül, különösen az adatbázis embereitől és az adatkezelőktől vagy az információk kezelését végző emberek, mi történik, ha rengeteg elosztott kis miniatűr adattavam van? Milyen dolgokat alkalmaztak erre a gondolkodásra a szélelemzés szempontjából a megoldásban, abban a tekintetben, hogy hagyományosan minden központilag az adat-tó közepén kerülne, most mindenhol ezeknek a kis adat-pocsolya-oknak a végén állunk, és bár végezzen elemzést rájuk, hogy helyi betekintést nyerjen, milyen kihívásokkal szembesült és hogyan oldotta meg ezt az elosztott adatkészlettel, és különösen akkor, ha megkapja az adattavak és az elosztott területek mikrokozmoszát?
Shawn Rogers: Nos, azt hiszem, ez az egyik kihívás, igaz? Amint távozunk, tudod, hogy az összes adat visszavitele a központ helyére vagy az analitikai alapvető példára, amelyet adtam, majd elkészítjük az elosztott verziót, az az, hogy végül ezekkel a kis silókkal jár, igaz? Ahogy ábrázoltad, igaz? Egy kis munkát végeznek, néhány elemző is működik, de hogyan hozhatja össze őket? És azt hiszem, hogy ennek kulcsa az egész zenekar hangszerelése, és azt hiszem, srácok egyetértenek velem, de örülök, ha nem, úgy gondolom, hogy ezt a fejlődést nagyon majd valamikor.
Visszatérve barátaink napjaiba, Inmon és Kimball úrba, akik mindenkinek segítettek korai adattárház-beruházásaik felépítésében, azzal a lényeggel, hogy hosszú ideje távol tartottuk e központosított modellt. Elfogadtuk ezt az új elképzelést, amely lehetővé teszi az adatok számára annak gravitációjának demonstrálását, ahol az a legjobban az ökoszisztéma belsejében kell lennie, és az adatokat a lehető legjobb platformhoz igazítja a lehető legjobb eredmény elérése érdekében. És úgy gondolom, hogy az ökoszisztémánk átfogóbb megközelítését, mint egy átfogó fajta cselekedetmódot kezdtük el, úgy gondoljuk, hogy mindezen darabokat egyszerre próbáljuk összehangolni. Milyen típusú elemzőt vagy munkát fogok kezdeni az adatokkal, milyen típusú adatok, amelyek segítenek diktálni, hol kell élni. Hol termelik és milyen típusú gravitációval rendelkeznek az adatok?
Tudod, sok ilyen nagy adat példát látunk, ahol az emberek arról beszélnek, hogy a 10 és 15 petaytetes adatlakkokról van szó. Nos, ha van egy ilyen nagy adattó, nagyon praktikus a mozgatása, és így képesnek kell lennie arra, hogy elemzést készítsen rá. De amikor ezt megteszi, a kérdésének lényege, azt hiszem, sok új kihívást jelent mindenkinek a környezet összehangolása, valamint a kormányzás és biztonság alkalmazása szempontjából, valamint annak megértése, hogy mit kell tenni ezekkel az adatokkal a kurátora és a Hozza ki a legnagyobb értéket belőle. És hogy őszinte legyek - örülnék, ha itt hallom a véleményét -, azt hiszem, itt vagyunk a korai napok, és azt hiszem, még sok jó munkát kell még tenni. Úgy gondolom, hogy olyan programok, mint a Statistica, arra koncentrálnak, hogy minél több ember férjen hozzá az adatokhoz. Határozottan ezekre az új személyekre összpontosítunk, mint például a polgári adatok tudósai, akik prediktív elemzést akarnak vezetni a szervezeten belül olyan helyekre, amelyek korábban még nem voltak. És azt hiszem, hogy ezek a korai napok néhány körül, de úgy gondolom, hogy az érettségi szintnek magas szintű bemutatást vagy orgonizációt és összehangolást kell demonstrálnia e platformok között, és meg kell értenie, hogy mi van rajtuk és miért. És ez mindannyiunk adattársainak régi problémája.
Dez Blanchfield: Valójában így van, és teljesen egyetértek veled ebben, és azt hiszem, hogy a mai dolog, amit ma itt hallunk, legalább az a probléma, amely az adatok tényleges rögzítését jelenti, azt hiszem, az átjáró szintjén, a szélén. A hálózat kiépítése és az elemzés képessége ezen a ponton alapvetően most megoldódott. És ez most felszabadít minket, hogy valóban elkezdjünk gondolkodni a következő kihívásról, amely az elosztott adat tavak. Nagyon köszönöm szépen, fantasztikus bemutató volt. Nagyon értékelem a lehetőséget, hogy veled beszélgethessek róla.
Most átadom Robinnak, mert tudom, hogy van, majd Rebecca-nak hosszú listája van a nagyszerű kérdésekről a közönség részéről, Robin után. Vörösbegy?
Dr. Robin Bloor: Oké. Shawn, szeretném, ha még egy kicsit többet mondanának, és nem próbálom megadni neked a lehetőséget hirdetésére, de valójában ez nagyon fontos. Szeretném tudni, hogy mikor állt rendelkezésre a Statistica a modell exportálási képessége. De azt is szeretném, ha mondna valamit a Boomi-ról, mert mindazt, amit eddig mondtál a Boomiról, az az, hogy ETL, és valójában ETL. De valójában elég képes ETL-hez, és az ilyen időzítésekről, amelyekről beszélünk, és néhány olyan helyzet, amelyről itt beszélünk, ez egy nagyon fontos dolog. Beszélne értem e két dolgokkal?
Shawn Rogers: Persze, igen, teljesen tudom. Tudod, az ebbe az irányba való mozgásunk minden bizonnyal ismétlődő volt, és egyfajta lépésről lépésre volt folyamat. Most készülünk fel a jövő héten, hogy elindítsuk a Statistica 13.2-es verzióját. És az összes olyan képesség legújabb frissítéseit tartalmazza, amelyekről ma beszélünk. Visszatérve a 13. verzióra, egy évvel ezelőtt októberben, bejelentettük, hogy képesek vagyunk modelleket exportálni a platformon, és akkoriban NDAA-nak hívták. A betűszó a Native Distributed Analytics Architecture kifejezést jelentette. Amit tettünk, sok időt, energiát és erőfeszítést fektettünk arra, hogy felnyissuk platformunkat azzal a lehetőséggel, hogy felhasználjuk azt a fejlett elemzés központi irányító központjaként, és onnan is telepíteni. És az első helyek, Robin, amelyeket telepítettünk, egy igazán nagyszerű kiegészítést tettünk a gépi tanulás körüli platformhoz. Tehát képesek voltunk a Statistica-tól a Microsoft Azure Cloud-be telepíteni az Azure erejét a gépi tanulás elősegítésére, amint tudod, nagyon intenzív és nagyszerű módja a felhőalapú technológiák felhasználásának. És tehát ez volt az első rész.
Most itt modelleket exportáltunk az Azure-ba, és az Azure-t futtattuk, majd az adatokat vagy az eredményeket visszaküldtük a Statistica platformra. Aztán átmentünk más nyelvekre, amelyeket exportálni akartunk, és természetesen az egyik, a Java, kinyitja az ajtót, hogy modelljeinket külföldre exportálhatjuk más helyekre, mint például a Hadoop, tehát nekünk egy színjáték is.
És végül arra összpontosítottunk, hogy képesek legyenek kimeneteinket az adatbázisba történő kiadással. És tehát ez volt az első iteráció, és hogy őszinte legyek, a vége játék IoT volt, de még nem voltunk ott ott a tavaly októberi 13. verzióval. Azóta eljutottunk oda, és ehhez az a képességünk van, hogy mindazt a dolgot megtesszük, amelyet már említettem, de hogy legyen valamiféle szállítóeszköz. Visszatérve Dez kérdéséhez, tudod, mi a kihívás, és hogyan kell ezt csinálni, amikor mindezen elemzések futnak körül? Nos, a Boomi-t használjukfajta disztribúciós központként, és mivel felhőben van, és mivel olyan hatalmas, mint már említettem, ez egy adatintegrációs platform, de egyben alkalmazásintegrációs platform, és a JVM-eket használva bárhová parkolhat és dolgozhat, ahol el lehet helyezni egy Java virtuális gépet. Ez az, ami valóban nyitva hagyta az összes átjáró, szélsőséges kiszolgáló platform és élkiszolgáló számára az ajtót, mert mindegyik rendelkezik a számításokkal és a platformmal, amely elérhető a JVM futtatásához. És mivel a JVM-et bárhol futtathatjuk, Boomi fordult hogy csodálatos disztribúció legyen, és a korábbi szavaimat felhasználva hangszerelési eszköz.
És ez egyre fontosabbá válik, mert mindannyian, tudod, azt hiszem, hogy egy perccel ezelőtt a repülőgép forgatókönyve kiváló volt, és megemlítettem, tudod, hogy a Shire-hoz hasonló gyártók, akiknek tízezer érzékelő van az egyik gyárban, te valamikor el kell kezdenie a fejlett elemzés központi megközelítésének kezelését. Ad hoc jelleggel többé nem működik. Régebben, amikor a modellek és algoritmusok volumene minimális volt, de most már a maximális. Több ezer van egy szervezetben. Tehát megvan, a platformunk egy része szerver alapú, és ha rendelkezik vállalati szoftverünkkel, akkor lehetősége van arra is, hogy módosítsa és pontozza, és kezelje modelleit a környezetben. És ez szintén része annak a hangszerelésnek. Szükségünk volt egy rétegre, Robinra, amely nemcsak lehetővé tette, hogy ott modellt kapjon, hanem vezetőt adott a modellek finomításához és folyamatos cseréjéhez, amilyen gyakran csak szüksége volt, mert ezt nem manuálisan teheti meg. Nem járhat körül finomítót hüvelykujj-meghajtóval, és megpróbálja feltölteni a modelleket az átjárókra. Között kell lennie egy szállítási és irányítási rendszernek, és így a Statistica és a Boomi kombinációja ezt adja ügyfeleinknek.
Dr. Robin Bloor: Igen. Nos, nagyon röviden beszélek, de tudod, ez a kijelentés, amelyet korábban tettek az adat-tóra és a petatabiták felhalmozódásának gondolatára egy adott helyen, és az a tény, hogy gravitációs. Tudod, amikor elkezdtél beszélni a zenekari rendezésről, az elgondolkodni kezdett az a nagyon egyszerű tény, hogy tudod, ha egy nagyon nagy adattó egy helyre helyezése valószínűleg azt jelenti, hogy valójában biztonsági másolatot kell készíteni, és ez valószínűleg azt is jelenti, hogy egyébként sok adatot kell mozgatnia. Tudod, véleményem szerint a valós adat-architektúra sokkal több abban az irányban, amelyről beszél. Amit azt mondanám, hogy ésszerű helyekre terjesztjük, az valószínűleg az, amit mondanék. És úgy tűnik, hogy nagyon jó képessége van erre. Úgy értem, jól informáltam a Boomi-t, tehát valamilyen módon szinte tisztességtelen, hogy látom, és talán a közönség nem. De Boomi annyira nélkülözhetetlen véleményem szerint, amit csinálsz, mert alkalmazási lehetőségei vannak. És azért is, mert az igazság az, hogy nem hajtja végre ezeket az analitikus számításokat anélkül, hogy valamilyen okból meg akarná tenni valamit. És Boomi szerepet játszik ebben, igaz?
Shawn Rogers: Igen, teljesen. És ahogy a korábbi beszélgetésekből tudta, a Statistica teljes körű üzleti szabályokkal rendelkezik. És azt hiszem, hogy ez nagyon fontos, amikor megtudjuk, miért csináljuk ezt. Tudod, először tréfáltam, hogy valójában nincs ok az internet tárgyalására, kivéve, ha elemezni fogja, felhasználja az adatokat jobb döntések meghozatalához vagy cselekedetekhez. Tehát arra, amire összpontosítottunk, az nem csupán az volt, hogy ki tudjuk állítani a modellt, hanem hogy meg is tudjuk címkézni vele együtt, egy szabálykészlet. Mivel pedig a Boomi annyira erős képességein van, hogy mozgatja a dolgokat egyik helyről a másikra, egy Boomi atomon belül beágyazhatjuk a kiváltó, figyelmeztető és cselekvési képességeket is.
És így kezdjük el a tárgyak internete adatainak ilyen kifinomult nézetét kapni, amikor azt mondjuk: „Oké, ezeket az adatokat érdemes meghallgatni.” De valóban, tudod, tudva, hogy „a fény világít, a fény világít, világít, világít, világít ”nem annyira érdekes, amikor a fény kialszik, vagy amikor a füstérzékelő kialszik, vagy amikor a gyártási folyamattal történik minden, ami specifikus. Amikor ez megtörténik, azonnali intézkedéseket akarunk tenni. És az adatok itt szinte másodlagossá válnak. Mivel nem olyan fontos, hogy megmentsük ezeket a „rendben, rendben, rendben” jelzéseket, fontos, hogy észrevegyük a „Hé, ez rossz” elemet, és azonnal cselekedtünk. Függetlenül attól, hogy e-mailt küldünk valakinek, vagy részt vehetünk-e a domain-szakértelemben, vagy elindítottuk-e más folyamatok sorozatát azonnali cselekvésre, akár korrekciós, akár az információra adott válaszként. És azt hiszem, ezért kell lennie ennek a hangvezérelt nézetnek. Nem csak arra koncentrálhat, hogy az algoritmusokat mindenhol kezelje. Önnek képesnek kell lennie arra, hogy összehangolja és összehangolja őket. Látnia kell, hogyan teljesítenek. És valójában, ami a legfontosabb, úgy értem, miért is csinálnád ezt, ha nem adod hozzá a lehetőséget, hogy azonnali lépéseket tegyen az adatok ellen?
Dr. Robin Bloor: Oké, Rebecca, azt hiszem, kérdése van a közönséggel?
Rebecca Jozwiak: Igen. Van egy csomó közönség kérdésem. Shawn, tudom, hogy nem akartál túl sokáig lógni az óra tetején. Mit gondolsz?
Shawn Rogers: boldog vagyok. Menj tovább. Meg tudok válaszolni néhányat.
Rebecca Jozwiak: Lássuk. Tudom, hogy az egyik dolog, amit megemlítettél, az IoT korai napjaiban van, és ennek bizonyos fokú érettségi szintjét meg kell valósítani, és ez valamilyen módon válaszol erre a kérdésre, amelyet az egyik résztvevő feltett. Ha az IPv6-keret elég robusztus lesz ahhoz, hogy az elkövetkezendő öt vagy tíz évben megfeleljen az IoT növekedésének?
Shawn Rogers: Ó, hagyom, hogy Dez visszhangzzon a válaszomtól, mert szerintem közelebb áll az ilyen típusú információkhoz. De mindig is azon gondolkodtam, hogy nagyon gyors úton haladunk, hogy meghajoljuk és megtörjük a jelenlegi keretek nagy részét. És bár úgy gondolom, hogy fontos hozzátenni az újfajta specifikációt vagy az irányt, amelyet az IPv6-keretrendszerhez haladunk, és ez nyitja az ajtót, hogy sokkal több eszközünk legyen, és mindent meg tudunk adni, amit mi szeretne címet adni. Úgy gondolom, hogy minden, amit az ügyfelekkel olvastam és látok, valamint a szükséges címek száma, azt hiszem, egy bizonyos ponton újabb változást fog okozni abban a tájban. De nem igazán vagyok hálózati szakértő, tehát nem tudom száz százalékkal mondani, hogy egy pillanatra megszakítjuk. De a tapasztalataim azt mondják, hogy egy bizonyos ponton megszakíthatjuk ezt a modellt.
Rebecca Jozwiak: Nem lennék lepve. Úgy gondolom, hogy a keretek valamiféle dolog súlya alá kerülnek. És ez csak logikus, igaz? Úgy értem, nem küldhet e-mailt írógéppel. Egy másik résztvevő azt kérdezi: „Használhat-e Hadoop-keretet?”, De azt hiszem, megváltoztathatom azt, hogy mondjam: hogyan használnád a Hadoop-keretet az elosztott elemzésekhez?
Shawn Rogers: Nos, Robin kedvelt nekem egy történelmi kérdés feltevését, és így kb. Egy évvel ezelőtt a Statistica 13. verziója óta képesek voltunk modelleket kiszorítani a rendszerünkből és a Hadoopba. És nagyon szorosan együttműködünk a Hadoop nagyszerű ízeivel. Nagyon nagy sikertörténetek vannak a Cloudera-val való együttműködés képessége kapcsán, amely az egyik fő Hadoop disztribúció, amelyen dolgozunk. De mivel a Java-ban tudunk outputot adni, ez lehetőséget ad nekünk, hogy nyitottak legyünk és bárhol elhelyezhessük elemzőinket. Ha Hadoop klaszterbe helyezzük őket, rengeteg, rendszeres és mindennapi tevékenységet folytatunk sok ügyfelünk számára. A rövid válasz igen, teljesen.
Rebecca Jozwiak: Kiváló. És csak ki fogok dobni még téged, és hagyom, hogy elinduljon a nyaralásához. Egy másik résztvevő azt kérdezi, hogy az IoT analitika és a gépi tanulás révén minden adatot történelmi célokra kell tárolni, és hogyan befolyásolja ez a megoldás architektúráját?
Shawn Rogers: Nos, nem hiszem, hogy minden adatot meg kell tárolni. De azt hiszem, nagyon érdekes az a képesség, hogy szórakoztathassunk, hallgathassunk bármilyen adatforrást, amelyet a szervezetünkben szeretnénk, bárhol is legyen. És azt hiszem, hogy az elmúlt években a piacon megfigyelt változások lehetővé tették számunkra, hogy a dolgokra alkalmazzuk ezt az összes adat megközelítést, és úgy tűnik, hogy ez valóban kifizetődő. De minden társaságon és minden felhasználási esetben különbözik. Tudod, amikor az egészségügyi adatokkal foglalkozunk, most sok szabályozási kérdés van, rengeteg megfelelési kérdés kell aggódni, és ez arra készteti az adatok mentését, hogy más cégek esetleg nem értik, miért kell ezeket mentni, igaz ? A gyártási folyamatokban sok gyártó ügyfelünk számára valódi fejjel jár, hogy történelmileg megvizsgálhassa folyamatait, és visszatekinthessen ezen adatok nagy mennyiségére, hogy tanuljon belőle, és jobb modelleket készítsen belőle.
Úgy gondolom, hogy sok adatot meg kell őrizni, és azt hiszem, vannak olyan megoldásaink, amelyek manapság gazdaságosabbá és méretezhetőbbé teszik azokat. De ugyanakkor azt gondolom, hogy minden vállalat értéket fog találni azokban az adatokban, amelyeket nem kell atomi szinten tartaniuk, hanem valós idejű elemzést akarnak végezni, és döntéseket fognak hozni erről az innováció ösztönzése érdekében. a társaságuk.
Rebecca Jozwiak: Oké, jó. Nem, közönség, ma nem jutottam el mindenki kérdésébe, de továbbadom őket Shawnnak, hogy közvetlenül elérhessen és válaszoljon ezekre a kérdésekre. De köszönöm mindenkinek a részvételt. Nagyon köszönöm Shawn Rogers-t a Dell Statistica-tól és minden elemzőnk, Dez Blanchfield és Dr. Robin Bloor részéről. Az archívumot itt találhatja a insideanalysis.com webhelyen, a SlideShare-en, máris megkezdtük a dolgok oda-vissza felállítását, és újjáépítjük a YouTube-ot, ezért azt is oda kell keresnünk. Köszönöm nagyon sok ember. És ezzel elbúcsúzok neked, és legközelebb találkozunk.