เพราะธุรกิจทุกวันนี้ตัดสินที่ใครจะนำ Data มาวิเคราะห์ได้มีประสิทธิภาพกว่ากัน แต่ปัญหาคือหลาย ๆ องค์กรยังไม่รู้เลยว่าถ้าจะตั้งทีม Data ในบริษัทต้องทำอย่างไร? และควรมีใครบ้าง?
ทาง Skooldio จึงขอหยิบเอาคำแนะนำจาก MIT Sloan School of Management สถาบันด้านนวัตกรรมระดับต้น ๆ ของโลกมาฝากกัน ว่าทีม Data สุดปัง ต้องประกอบไปด้วยอะไรบ้าง?
ทีม Data ตามแบบฉบับ MIT ประกอบไปด้วย 5 ส่วนหลัก ๆ ดังนี้
Table of Contents
1. วิศวกรข้อมูล (Data Engineer)
ผู้สรรสร้าง ดูแล และพัฒนาระบบการรวบรวม คัดกรอง รวมถึงจัดการข้อมูลให้มีประสิทธิภาพ จากนั้นจึงนำข้อมูลที่ผ่านการคัดกรองแล้ว ส่งให้ Data Scientist ไปวิเคราะห์ข้อมูลเพื่อต่อยอดโอกาสทางธุรกิจต่อไป
2. นักวิทยาศาสตร์ข้อมูล (Data Scientist)
ถ้า Data Engineer เป็นผู้ดูแลระบบข้อมูล Data Scientist ก็คือคนที่เล่นกับข้อมูล ซึ่ง Data Scientist จะนำข้อมูลที่ผ่านการกรองมาวิเคราะห์หา Insight เพื่อประกอบการตัดสินใจต่าง ๆ ในองค์กร
3. นักแปลข้อมูล (Data Translator)
เปรียบเหมือนสะพานเชื่อมระหว่างทีม Data กับ ทีม Business จะเป็นคนที่เข้าใจการทำงานของระบบข้อมูลตั้งแต่ต้นจนถึงได้ Insight ออกมา แล้วนำสิ่งเหล่านั้นมานำเสนอในภาษาที่นักธุรกิจเข้าใจ (เทคนิคนำเสนอข้อมูล)
4. ตำแหน่งใหม่ ๆ (New Roles)
ในปัจจุบันตำแหน่งใหม่ ๆ เริ่มถูกออกแบบมาเพื่อเสริมประสิทธิภาพการทำงานในทีมมากขึ้น ไม่ว่าจะเป็น Knowledge Engineer ผู้สร้างระบบ AI ที่สามารถตัดสินใจได้คล้ายกับมนุษย์ หรือ Onthologist ผู้มองภาพรวมให้กับบริษัท โดยการนำข้อมูลจากการวิเคราะห์กับข้อมูลอื่น ๆ มาประกอบการตัดสินใจให้องค์กร ก็ถูกสร้างขึ้นมาใหม่เช่นกัน
5. ผู้นำ (Leader)
ทีมที่ดี จำเป็นต้องมีผู้นำทีมเสมอ จากการสำรวจบริษัทในกลุ่ม Fortune 1000 โดย NewVantage Partners พบว่า 57% ของบริษัทที่สำรวจมีการตั้งตำแหน่งใหม่ เช่น Chief Data Officer (CDO) หรือ Chief Analytics Officer (CAO) ดูแล แต่ในทางกลับกัน ก็มีอีกหลายองค์กรนำทีม Data ไปอยู่ในการดูแลของหัวหน้าฝ่ายต่างๆ ที่มีอยู่แล้ว เช่น Chief Information Officer (CIO) Chief Operating Officer (COO) หรือ IT Executive ทั้งนี้ขึ้นอยู่กับการมอบหมายความรับผิดชอบของแต่ละองค์กรด้วย
ท้ายที่สุด การทำงานอย่างมีประสิทธิภาพของทีม Data สุดปังจะต้องมีการลำเลียงข้อมูลต่อกันมาเป็นทอด ๆ กว่าข้อมูลจะเดินทางจากต้นจนจบนั้น ส่วนประกอบหลักที่สำคัญอย่างหนึ่งเลยก็คือ Data Pipeline ซึ่งเป็นตัวลำเลียงข้อมูลดิบมาผ่านการกรอง และเก็บรักษา เพื่อที่แต่ละฝ่ายจะได้นำไปใช้ต่อยอดมูลค่าให้กับองค์กรต่อไปได้
ถ้าอยากรู้เคล็ดลับการจัดการข้อมูลให้มีประสิทธิภาพ ให้เหมาะสมกับทีมวิเคราะห์ข้อมูลสุดปัง มาเจอกันได้ที่คอร์ส Automating Your Data Pipelines with Apache Airflow คอร์สแรกในเมืองไทย สอนโดยผู้เชี่ยวชาญตัวจริงในวงการ Data ไทย – ดร.กานต์ อุ่ยวิรัช