มุมมองสี่มิติของข้อมูลขนาดใหญ่

ศุกร์ ๐๔ มกราคม ๒๐๑๓ ๑๖:๕๖

ผู้จัดการประจำประเทศไทย ฮิตาชิ ดาต้า ซิสเต็มส์ พีทีอี ลิมิเต็ด

การจัดการกับข้อมูลขนาดใหญ่นั้นไม่ได้เกี่ยวข้องเฉพาะกับปริมาณของชุดข้อมูลขนาดใหญ่เท่านั้น แต่ยังครอบคลุมถึงการจัดการกับความหลากหลายของข้อมูล (ชนิดข้อมูล) ที่เพิ่มขึ้นอย่างมาก และความรวดเร็วของข้อมูล (ความรวดเร็วในการสร้างข้อมูล)1 , อ้างอิงจากรายงานของการ์ทเนอร์ โดยเมื่อช่วงปี พ.ศ. 2544 ดั๊ก เลน นักวิเคราะห์จากบริษัท เมตา กรุ๊ป (ปัจจุบันคือบริษัท การ์ทเนอร์)2 ได้นิยามคำว่ามุมมองสามมิติของการจัดการข้อมูลว่า หมายถึง ปริมาณ (volume) ความหลากหลาย (variety) และความเร็ว (velocity) โดยในปัจจุบัน บริษัท การ์ทเนอร์ ยังคงเดินหน้าใช้โมเดลนี้ช่วยองค์กรต่างๆ ให้เกิดความเข้าใจในข้อมูลขนาดใหญ่และค้นหารูปแบบต่างๆ ที่มีอยู่ภายในข้อมูลเหล่านั้นเพื่อนำไปสู่การตัดสินใจที่ดียิ่งขึ้น โดยล่าสุดรายงานจากบริษัท ไอดีซี ได้เพิ่ม “มูลค่า” (value) ให้เป็นมิติข้อมูลที่สี่ นอกเหนือจาก ปริมาณ ความรวดเร็ว และความหลากหลาย3

การดึง “มูลค่าเชิงกลยุทธ์” ออกมาจากข้อมูลที่กำลังเพิ่มจำนวนขึ้นอย่างรวดเร็ว ซึ่งมีความหลากหลาย และมีขนาดมหาศาลนั้น สามารถสร้างประโยชน์อย่างมากให้กับองค์กรหรือแม้แต่สังคมโดยรวมได้ ตัวอย่างความสำเร็จมีให้เห็นแล้วอย่างมากมาย โดยกรณีตัวอย่างที่มีชื่อเสียงที่สุด เช่น ผู้ประกอบการด้านข้อมูลขนาดใหญ่ อย่าง Amazon และ Google ที่ให้ความสำคัญอย่างมากต่อข้อมูลการคลิก (click streams) ที่เชื่อมโยงกับตำแหน่งการจัดวางโฆษณา สำหรับตัวอย่างอื่นๆ ได้แก่ Walmart และ 7-Eleven ที่ใช้ข้อมูลเพื่อช่วยในการจัดเตรียมสต็อกสินค้าและการส่งเสริมการขาย จึงเป็นเหตุผลสำคัญที่องค์กรธุรกิจและผู้นำด้านไอทีทั้งหมดจะต้องเข้าใจในสี่มิติของข้อมูลขนาดใหญ่ รวมทั้งจะต้องเรียนรู้ด้วยว่ากลยุทธ์ระบบจัดเก็บข้อมูลที่เหมาะสมสามารถ สร้างรากฐานที่มั่นคงสำหรับการขยายตัวทางธุรกิจในอนาคตได้อย่างไร

ความท้าทายของปริมาณข้อมูลที่กำลังเพิ่มมากขึ้น

ในบริบทของข้อมูลขนาดใหญ่ (Big Data) "ปริมาณ" หมายถึงจำนวนข้อมูลที่ถูกสร้างขึ้น ปริมาณอาจมีความแตกต่างกันระหว่างภาคอุตสาหกรรมและภาคส่วนบุคคล ตัวอย่างเช่น ผู้ให้บริการระบบคลาวด์โดยปกติ จะสามารถจัดการกับข้อมูลได้มากถึงระดับเอ็กซาไบต์ ขณะที่ร้านค้าปลีกจะจัดการข้อมูลในแต่ละรายการที่มีการเปลี่ยนแปลง (Transaction) ที่ระดับเพตาไบต์ อย่างไรก็ตาม ไม่ว่าขนาดของข้อมูลจะมากน้อยเพียงใด องค์กรธุรกิจทั้งสองรูปแบบนี้ต้องพบกับความท้าทายของปริมาณข้อมูลขนาดใหญ่ที่กำลังเพิ่มจำนวนขึ้นอย่างต่อเนื่อง อันเป็นผลมาจากวิวัฒนาการของเทคโนโลยีและแนวทางปฏิบัติใหม่ๆ ทางธุรกิจ

แนวทางแก้ไขปัญหาปริมาณข้อมูลขนาดใหญ่นั้น คือความสามารถในการปรับขยายของระบบจัดเก็บข้อมูลที่ครอบคลุมหลายมิติ โดยสามารถปรับขยายในแนวตั้ง (scale up) เพื่อเพิ่มประสิทธิภาพในการเข้าถึงเฉพาะบุคคล ปรับขยายในแนวนอน (scale out) เพื่อการเข้าถึงแบบกระจาย และปรับขยายในแนวลึก (scale deep) เพื่อการเข้าถึงทรัพยากรระบบจัดเก็บข้อมูลแบบเสมือนที่ต่างชนิดกันได้อย่างครอบคลุม ประเด็นสำคัญก็คือ ความสามารถในการปรับขยายได้ให้ความจุที่เหนือกว่าความจุที่จำเป็น ต้องใช้ในปัจจุบัน เนื่องจากความต้องการในระบบจัดเก็บข้อมูลกำลังเพิ่มจำนวนขึ้นอย่างต่อเนื่อง และจากข้อมูลของบริษัท การ์ทเนอร์ พบว่าปริมาณข้อมูลทั่วโลก จะขยายตัวอย่างน้อย 59% ต่อปี1

ความเร็วในด้านการจัดเก็บ การค้นหา และการเรียกใช้ข้อมูลขนาดใหญ่

"ความเร็ว" ของข้อมูลขนาดใหญ่ หมายถึงความเร็วในการจัดทำดัชนีและการจัดเก็บข้อมูล รวมถึงความเร็วในการประมวลผลข้อมูลสำหรับการนำเสนอด้วย สิ่งนี้มีความสำคัญเนื่องจากมีข้อมูลที่ถูกสร้างเป็นจำนวนเพิ่มมากขึ้นเรื่อยๆ และขณะนี้กำลังขยายตัวอย่างมหาศาลในรูปแบบมัลติมีเดียและออบเจ็กต์ ปริมาณข้อมูลขนาดใหญ่ มีความแตกต่างกันระหว่างอุตสาหกรรมและภาคส่วนต่างๆ ดังนั้น คุณลักษณะ ด้านประสิทธิภาพของข้อมูล ขนาดใหญ่จึงแตกต่างกันไปตามชนิดข้อมูล ตัวอย่างเช่น ข้อมูลบางอย่างจะถูกสตรีมในรูปของบล็อกขนาดใหญ่อย่างต่อเนื่อง ขณะที่ข้อมูลอื่นๆ อาจต้องแบ่งย่อยให้มีขนาดเล็กในรูปของบล็อกแบบสุ่มหรือเป็นไฟล์เล็กๆ นับพันล้านไฟล์ และองค์กรยังจะต้องจัดการสิ่งต่างๆ ในระหว่างนั้นด้วย! นี่จึงเป็นเหตุผลที่สถาปัตยกรรมระบบจัดเก็บข้อมูลที่เหมาะสมต้องไม่เพียงแต่สามารถจัดการข้อมูลแบบไม่มีโครงสร้างได้เท่านั้น แต่ยังจะต้องสามารถสนับสนุนแอพพลิเคชั่นประสิทธิภาพสูงได้อย่างรวดเร็วอีกด้วย รวมทั้งต้องสามารถบันทึก ประมวลผล จัดเก็บ ค้นหา และวิเคราะห์ข้อมูลชนิดต่างๆ ได้ โดยไม่คำนึงว่าข้อมูลจะอยู่ในรูปของบล็อก ไฟล์ หรือออบเจ็กต์

การดึงมูลค่าที่มีอยู่จากข้อมูลขนาดใหญ่ที่หลากหลาย

การเพิ่มจำนวนอย่างรวดเร็วของข้อมูลขนาดใหญ่นั้นเป็นผลมาจาก "ความหลากหลาย" ของข้อมูล นอกจากการขยายตัวของข้อมูลที่มีการเปลี่ยนแปลงแต่ละรายการ (Transaction) ที่มีอยู่เดิมแล้ว โลกที่ เต็มไปด้วยข้อมูล ในปัจจุบันยังรวมแอพพลิเคชั่นขั้นสูงเฉพาะอุตสาหกรรมไว้ด้วย ตัวอย่างเช่น ขณะนี้ร้านค้าปลีกได้รวบรวมข้อมูลส่วนบุคคลไว้ในข้อมูลที่มีการเปลี่ยนแปลงแต่ละรายการ (Transaction) เพียงครั้งเดียว และสามารถบันทึกพฤติกรรมของผู้บริโภคในสภาพแวดล้อมต่างๆ ได้เป็นจำนวนมาก ในขณะที่โรงพยาบาลใช้การเอ็กซเรย์ ซีทีสแกน เอ็มอาร์ไอ คลื่นไฟฟ้าหัวใจ และเครื่องมือตรวจสอบอื่นๆ สำหรับการดูแลผู้ป่วย การจัดยา และการเรียกเก็บเงิน นอกจากนี้ ความนิยมของสมาร์ทโฟนและพีซีแบบพกพายังได้สร้างโลกที่เต็มไปด้วยไฟล์สื่อสังคมออนไลน์ นับพันล้านไฟล์ ซึ่งรวมถึงรูปถ่าย การทวีต และการโพสต์ต่างๆ ในบล็อก

ในการใช้ประโยชน์จากขุมพลังข้อมูลขนาดใหญ่ที่หลากหลายนั้น ระบบจัดเก็บข้อมูลของคุณจะต้องสามารถจำลองข้อมูลชนิดต่างๆ เหล่านี้ให้เป็นระบบเสมือนที่สามารถเชื่อมโยงกับข้อมูลที่มีอยู่ภายในระบบได้ ฟังก์ชันการสืบค้นเมตาดาต้า (metadata) สามารถจัดการกับปัญหาเหล่านี้ได้ เนื่องจาก เมตาดาต้าจะให้รายละเอียดเนื้อหาข้อมูลและนโยบายที่จะใช้ควบคุมข้อมูล รวมทั้งช่วยให้ผู้ใช้สามารถค้นหาข้อมูลทั้งหมดได้โดยที่ไม่คำนึงถึงแหล่งที่มาหรือรูปแบบของข้อมูล การค้นหาเมตาดาต้าสามารถทำได้โดยง่ายและรับรู้ได้ถึงความเกี่ยวข้องของข้อมูลอย่างชาญฉลาดครอบคลุมทรัพยากรที่มีอยู่จำนวนมากซึ่งมีการเชื่อมต่อระหว่างกันเพื่อสนับสนุนเป้าหมายทางธุรกิจ คาดการณ์แนวโน้มตลาด ระบุความผิดปกติทางการเงินและความปลอดภัย ตลอดจนจุดประกายให้เกิดนวัตกรรมใหม่ขึ้น ด้วยเหตุนี้ การจัดการข้อมูล ที่มีความหลากหลายจึงสามารถดำเนินการได้อย่างรวดเร็วและง่ายดาย

มิติที่สี่ - มูลค่าของข้อมูลขนาดใหญ่

"มูลค่า" ของข้อมูลขนาดใหญ่มาในรูปแบบของสารสนเทศที่ได้จากการวิเคราะห์ข้อมูล จะเห็นได้ว่ามีตัวอย่างมากมายที่แสดงให้เห็นว่าข้อมูลขนาดใหญ่สามารถนำมาซึ่งมูลค่าแก่บริษัทขนาดใหญ่และเล็กได้ด้วยการรวบรวมข้อมูลจากแหล่งที่มาใหม่ๆ และเชื่อมโยงเข้าด้วยกันเพื่อสร้างเป็นสารสนเทศที่จะช่วยให้ธุรกิจสามารถขยายตัว และเพิ่มขีดความสามารถด้านการแข่งขันได้ในระดับสูงสุด ในช่วงต้นของเอกสารนี้ เราได้ยกตัวอย่าง Amazon, Google, Walmart และ 7 Eleven ซึ่งทั้งหมดนี้ได้พิสูจน์ให้เห็นแล้วว่าพวกเขาสามารถค้นพบมูลค่าในข้อมูล ขนาดใหญ่ได้อย่างเห็นผล

การทำเหมืองข้อมูล (Data Mining) และการวิเคราะห์ข้อมูลที่มีการเปลี่ยนแปลงแต่ละรายการ (Transaction) โดยใช้การคัดแยก การถ่ายโอน และการโหลด (Extract/Transform/Load), NoSQL, Hadoop และฐานข้อมูล ในหน่วยความจำหลัก (in-memory) ถือเป็นโซลูชั่นที่ดีเยี่ยมสำหรับข้อมูลขนาดใหญ่ที่ถูกสร้างโดยองค์กรธุรกิจและมนุษย์ อย่างไรก็ตาม โซลูชั่นเหล่านี้อาจไม่สามารถตอบสนองความต้องการด้านมูลค่าข้อมูลขนาดใหญ่ได้ ในอนาคต ซึ่งเป็นเรื่องที่เกี่ยวข้องกับข้อมูลที่สร้างขึ้นจากเครื่องเป็นหลัก

ฮิตาชิ ดาต้า ซิสเต็มส์ เชื่อว่า "มูลค่า" ของข้อมูลขนาดใหญ่ในอนาคตจะต้องใช้แนวทางใหม่ๆ ในการบริหารจัดการ เนื่องจากชนิดของข้อมูลมีความซับซ้อนมากขึ้นเรื่อยๆ เช่น การสแกนสมองหรือ MRI ปัจจุบันมีบุคลากรและระบบที่มีความสามารถในการเขียนและวิเคราะห์ข้อมูลนี้อยู่แล้ว แต่ก็จำเป็นต้องใช้ความรู้และความสามารถที่ไม่เคยมีมาก่อน เพื่อเปรียบเทียบชุดข้อมูลที่ซับซ้อนเหล่านี้กับสิ่งที่มีอยู่ในอดีต ซึ่งอาจมีอายุยาวนานกว่า 10 ปีหรือมากกว่านั้น และจากแนวโน้มข้อมูลปัจจุบันและความต้องการของผู้ใช้ที่เปลี่ยนไปได้ยืนยันให้เห็นแล้วว่า โมเดลและสถาปัตยกรรมที่มีอยู่นั้นไม่เพียงพอที่จะดึงมุมมองเชิงลึกจากข้อมูล ขนาดใหญ่ โดยเฉพาะข้อมูลที่เครื่อง สร้างขึ้น

ระบบคลาวด์สามชั้นสำหรับสี่มิติของข้อมูลขนาดใหญ่

สำหรับมุมมองมหภาคของวิธีการจัดการข้อมูลขนาดใหญ่ที่ครอบคลุม ทีมวิจัยและพัฒนาของ ฮิตาชิ ได้เสนอโมเดลใหม่ที่ประกอบด้วยส่วนประกอบหลักสามส่วน ได้แก่ ระบบคลาวด์สำหรับโครงสร้างพื้นฐาน ระบบคลาวด์สำหรับเนื้อหา และระบบคลาวด์สำหรับสารสนเทศ โดยทั้งหมดนี้ยึดตามแนวทางของ ฮิตาชิ ดาต้า ซิสเต็มส์ เกี่ยวกับโซลูชั่นระบบจัดเก็บข้อมูลเพื่อจัดการค่าพารามิเตอร์ในสี่มิติ ได้แก่ ปริมาณ ความเร็ว ความหลากหลาย และมูลค่า

- ระบบคลาวด์สำหรับโครงสร้างพื้นฐาน (Infrastructure Cloud) — ระบบนี้เป็นโครงสร้างพื้นฐานจริงที่รองรับการทำงานของแอพพลิเคชั่นของ ฮิตาชิ (ผ่านทางระบบคลาวด์สำหรับเนื้อหาและระบบคลาวด์สำหรับสารสนเทศ) และบริษัทอื่นๆ ครอบคลุมถึงระบบคอมพิวเตอร์ ระบบเครือข่าย ระบบจัดเก็บข้อมูล และทรัพยากรเสมือนที่มีระบบรักษาความปลอดภัยแบบภายใน ตลอดจนซอฟต์แวร์การจัดการเพื่อจัดระเบียบการใช้งาน การเลิกใช้งาน และการบริหารจัดการทรัพยากรแบบเสมือนและทรัพยากรจริงอย่างต่อเนื่อง โดยโครงสร้างพื้นฐานนี้สามารถตอบสนองความต้องการด้าน "ปริมาณ" และ "ความเร็ว" ได้อย่างแท้จริง เมื่อใช้ระบบจัดเก็บข้อมูลเสมือนจริง Hitachi Virtual Storage Platform (VSP) และ Hitachi Unified Storage (HUS) สามารถปรับการใช้งานระบบคลาวด์สำหรับโครงสร้างพื้นฐานให้เหมาะสมกับความจุที่สามารถปรับขยายได้ในระดับเพตาไบต์ และสามารถสร้างพูลความจุของระบบจัดเก็บข้อมูลที่มีความจุถึง 1 ใน 4 ของหน่วยเอ็กซาไบต์ จะเห็นได้ว่าเฉพาะระบบไฟล์แบบออบเจ็กต์ (Hitachi NAS/HUS) และที่เก็บออบเจ็กต์แบบเฉพาะ (Hitachi Content Platform, HCP) เพียงลำพังก็สามารถปรับขยายได้ที่ระดับเพตาไบต์ ซึ่งเพียงพอสำหรับไฟล์หรือออบเจ็กต์นับพันล้านรายการ

เมื่อติดตั้ง VSP หรือ HUS เรียบร้อยแล้ว ระบบคลาวด์สำหรับโครงสร้างพื้นฐานสามารถปรับขยายเพิ่มเติมได้ ด้วยขีดความสามารถในด้านการปรับขยายที่ทรงประสิทธิภาพของระบบจัดเก็บข้อมูลแบบบล็อก อีกทั้งยังมีแพลตฟอร์มการจัดการทั่วไป ที่ชื่อว่า Hitachi Command Suite อีกด้วย และเพื่อให้มั่นใจว่าแพลตฟอร์มระบบคลาวด์ดังกล่าว สามารถทำงานด้วยประสิทธิภาพในระดับสูงสุด Hitachi Dynamic Tiering จะทำให้พูลบล็อกข้อมูลสำหรับ VSP และ HUS, ระบบไฟล์ HNAS และฐานข้อมูล HCP ทั้งหมดได้รับการปรับขยายอย่างอิสระ และไม่มีการขัดจังหวะการทำงานด้วยการปรับสมดุลความจุที่เพิ่มใหม่ โดยอัตโนมัติ ทั้งนี้ ระบบไฟล์แบบดั้งเดิมและอุปกรณ์ระบบจัดเก็บข้อมูลแบบบล็อกไม่อนุญาตให้มีการปรับขยายในลักษณะนี้ได้อย่างอิสระ เมื่อจำเป็น ต้องเพิ่มความจุใหม่ ข้อมูลในระบบเก่าเหล่านี้จะต้องถูกเอาออกจากระบบไฟล์หรือบล็อกเดิมก่อนแล้วจึงค่อยโหลดกลับ เข้าไปในความจุใหม่ ซึ่งถือว่าไม่มีประสิทธิภาพทั้งในด้าน "ปริมาณ" และ "ความเร็ว" ที่สัมพันธ์กับข้อมูลขนาดใหญ่ในปัจจุบัน

- ระบบคลาวด์สำหรับเนื้อหา (Content Cloud) — ซอฟต์แวร์และฮาร์ดแวร์ที่มีการจัดการที่ดีสามารถจัดเก็บและค้นหาเนื้อหาได้ทั้งแบบมีโครงสร้างและไม่มีโครงสร้าง ดังนั้น จึงสามารถตอบสนอง "ความหลากหลาย" ของข้อมูลขนาดใหญ่ได้ โซลูชั่นระบบจัดเก็บข้อมูลของ ฮิตาชิ สามารถจัดการข้อมูลได้ทุกชนิดในระบบที่ต่างกัน และเมื่อมีการผสานรวม VSP หรือ HUS เข้ากับ HNAS และ HCP ขององค์กรต่างๆ แล้ว ก็สามารถสร้างพูลจัดเก็บข้อมูลเดียวสำหรับการจัดการ "ความหลากหลาย" ของข้อมูลได้ทั้งหมดโดยไม่คำนึงว่าข้อมูลนั้น จะอยู่ในรูปแบบบล็อก ไฟล์ หรือออบเจ็กต์ และทั้งหมดนี้จะมีมุมมองการจัดการเดียว ขณะที่ฟังก์ชันการสืบค้นเมตาดาต้าของ HCP ยังสามารถค้นหาตามบริบทเนื้อหาอย่างชาญฉลาดเพื่อช่วยองค์กรเปลี่ยนข้อมูลขนาดใหญ่เป็นสารสนเทศ ที่นำไปใช้ได้จริงโดยที่ไม่จำเป็นต้องเข้าถึงข้อมูลเอง

- ระบบคลาวด์สำหรับสารสนเทศ (Information Cloud) — กลไกและเครื่องมือขั้นสูงที่จะวิเคราะห์ แสดงผล และปรับเปลี่ยนการใช้งานเนื้อหาทั้งแบบมีโครงสร้างและไม่มีโครงสร้างด้วยขีดความสามารถด้านการจัดการระบบขั้นสูงที่จะดึง "มูลค่า" ของข้อมูลขนาดใหญ่ออกมา โดยขณะนี้ ฮิตาชิ ดาต้า ซิสเต็มส์ ได้ร่วมมือกับผู้จำหน่ายรายอื่นๆ เพื่อตอบสนองความต้องการด้านมูลค่าของข้อมูลขนาดใหญ่ในปัจจุบัน

ส่วนประกอบเหล่านี้ถือเป็นหลักสำคัญในการปรับเปลี่ยนรูปแบบ เมื่อศูนย์ข้อมูลในรูปแบบเดิมได้พัฒนาไปเป็นศูนย์สารสนเทศ ซึ่งสิ่งนี้สามารถบรรลุผลได้โดยอาศัยหลักการ 3 ประการ ได้แก่ การพัฒนาซอฟต์แวร์ การพัฒนาไมโครโค้ด/เฟิร์มแวร์ และวิศวกรรมฮาร์ดแวร์สำหรับแอพพลิเคชั่นด้านสารสนเทศ/เนื้อหาขั้นสูงและโครงสร้างพื้นฐานหลัก จากรูปที่ 1 ความสามารถด้านการวิจัยและพัฒนาทั่วโลกของ ฮิตาชิ ในแอพพลิเคชั่นด้านสารสนเทศ/เนื้อหาและโครงสร้างพื้นฐานหลักจะยึดตามหลักการทั้งหมดนี้ ซึ่งช่วยให้ฮิตาชิสามารถสร้างโซลูชั่นที่ตอบสนองความต้องการข้อมูลขนาดใหญ่ในปัจจุบันและต่อไปในอนาคตได้

ความต้องการ "มูลค่า" ของข้อมูลขนาดใหญ่ในอนาคต

ความต้องการ "มูลค่า" ของข้อมูลขนาดใหญ่ในอนาคต มีความเฉพาะเจาะจงสูงมาก ซึ่งจำเป็นต้องอาศัย ขีดความสามารถที่ครอบคลุมของกลุ่มบริษัทฮิตาชิ ในมุมนี้จะเห็นได้ว่า ฮิตาชิมีความแข็งแกร่งแตกต่างจาก บริษัทอื่นอย่างชัดเจน ด้วยจำนวนบริษัทสาขา 900 แห่งที่มีความชำนาญและมีความเชี่ยวชาญเชิงลึกในด้านข้อมูลอย่างรอบด้าน ตัวอย่างเช่น ฝ่ายการแพทย์ของ ฮิตาชิ จะสร้าง MRI ที่ไม่เพียงแต่ถ่ายภาพสแกนเท่านั้น แต่จะทำการวิเคราะห์ภาพถ่ายดังกล่าวด้วย ในฝ่ายระบบขนส่ง ฮิตาชิ ได้พัฒนาโซลูชั่นที่ครอบคลุม ตั้งแต่รถไฟความเร็วสูง (หัวกระสุน) ในญี่ปุ่นไปจนถึงระบบรถไฟไฮบริดสำหรับมหกรรมกีฬาโอลิมปิค ณ กรุงลอนดอน ขณะที่อีกฝ่ายหนึ่งของ ฮิตาชิ ได้สร้างกล้องชนิดพิเศษที่มีซอฟต์แวร์จดจำใบหน้าสำหรับตรวจจับและติดตามตัวบุคคล และยังใช้สำหรับวิเคราะห์การแสดงออกทางสีหน้าของบุคคลที่ตอบสนองต่อสิ่งเร้า เช่น โฆษณา ในปัจจุบันยังไม่มีบริษัทอื่นใดในโลกที่มีความเชี่ยวชาญรอบด้านเช่นนี้ ซึ่งรวมถึงด้านพลังงาน การขนส่ง การแพทย์ และการเงินด้วย ขีดความสามารถดังกล่าวล้วนแต่มีเทคโนโลยีสารสนเทศเป็นแกนหลัก และจากการแบ่งปันมุมมองร่วมกันทั้งกลุ่มบริษัทของ ฮิตาชิ นี่เองที่ช่วยสนับสนุนให้ ฮิตาชิ ดาต้า ซิสเต็มส์ ก้าวสู่การเป็นบริษัทที่มีความโดดเด่นอย่างมากในด้านการแก้ไขปัญหาข้อมูลขนาดใหญ่ในอนาคต

1. ข่าวประชาสัมพันธ์: Gartner Says Solving 'Big Data' Challenge Involves More Than Just Managing Volumes of Data, Gartner, June 27, 2011

2. Douglas, Laney. "3D Data Management: Controlling Data Volume, Velocity and Variety". Gartner, February 6, 2001.

3. http://www.idc.com/getdoc.jsp?containerId=IDC_P23177, IDC

ข่าวประชาสัมพันธ์ล่าสุด

๒๒ พ.ย. รีเลชั่นชิพรีพับบลิค แนะกลยุทธ์สำคัญ นำพาธุรกิจร้านอาหารสู่ความสำเร็จ มัดใจลูกค้าให้อยู่หมัด
๒๒ พ.ย. ชมนวัตกรรมสุดล้ำในงาน METALEX 2024 หลายแบรนด์แกะกล่องเครื่องจักรครั้งแรกในงานนี้
๒๒ พ.ย. Bangkok Illustration Fair 2024 สู่การเติบโตก้าวใหญ่ในปีที่ 4
๒๒ พ.ย. ผลการจัดอันดับขีดความสามารถในการแข่งขันด้านดิจิทัลโดย IMD ประจำปี 2567 TMA เผยไทยครองอันดับ 37 ในการจัดอันดับด้านดิจิทัลปีนี้
๒๒ พ.ย. โก โฮลเซลล์ จัดเต็มสินค้า ส่งสุข สุดอร่อย เฉลิมฉลองเทศกาลส่งท้ายปี เข้มกระเช้าปีใหม่ดีมีมาตรฐาน พร้อมชู อาหารแช่แข็ง-อาหารสด
๒๒ พ.ย. กทม. จับมือสถานทูตเนเธอร์แลนด์ ประจำประเทศไทย จัดประชุมเชิงปฏิบัติการ ACTIVE Workshop เมืองเดินเท้า และจักรยานสัญจร ครั้งที่
๒๒ พ.ย. สัมผัสความหรูหราของวิลล่าริมทะเล VEYLA NATAI RESIDENCES ผ่านประสบการณ์เหนือระดับในงาน SOUL of VEYLA
๒๒ พ.ย. 'แอสเซทไวส์' จับมือ 'สยามกีฬา' เปิดศึกลูกหนังยุวชนทัวร์นาเมนต์ใหญ่แห่งปี AssetWise Siamkeela Cup 2024-25 ต่อเนื่องเป็นปีที่
๒๒ พ.ย. โรงแรมเรเนซองส์ เปิดตัว R FINDS แพลตฟอร์มดิจิทัลระดับโลก ที่จะเชื่อมมนต์เสน่ห์ชุมชนท้องถิ่นสู่นักเดินทางทั่วโลก
๒๒ พ.ย. electric.neon.lamp หยิบเพลงฮิต แม้ ใส่ฟีลดนตรีเหงาปนเศร้าในแบบ Piano Version