จะเกิดอะไรขึ้นกับอาชีพอย่างทนายความเมื่อคอมพิวเตอร์ฉลาดขึ้นเรื่อยๆ

change_personal_dataอ่านข่าวสองข่าวข้างล่างแล้วก็เริ่มสงสัย ไม่แน่ใจว่าอาชีพอย่างทนายความ อาจเริ่มได้รับผลกระทบจาก Big Data และ Artificial Intelligence ในเร็วๆ นี้หรือไม่

ด้วยความที่แทบไม่เคยรู้จักเป็นส่วนตัวกับทนายความมืออาชีพคนใดเลย ความคิดเห็นพวกนี้ต้องยอมรับว่า “มโน” ไปเองทั้งนี้

ที่เข้าใจเอาเองก็คือ งานที่ทนายความทำเมื่อว่าความก็คือ

  • ศึกษาข้อเท็จจริงในคดีนั้นๆ
  • ศึกษาข้อกฎหมายที่เกี่ยวข้อง
  • ศึกษาผลการพิพากษาในอดีตในคดีลักษณะคล้ายคลึงกัน
  • วิเคราะห์แล้วนำเสนอประเด็นที่จะใช้ต่อสู้ทางกฎหมาย

ด้วยเทคโนโลยีสมัยนี้ หลายข้อข้างต้น ตอนนี้คอมพิวเตอร์ทำได้ดีกว่ามนุษย์แล้ว ความสามารถอย่าง Text Analytics รวมกับ Natural Language Processing ทำให้ระบบน่าจะสามารถเชื่อมโยงข้อมูลอย่างข้อกฎหมายกับผลการพิพากษาในอดีตได้ และน่าจะสามารถเสนอตัวเลือกประเด็นในการต่อสู้ในชั้นศาลได้

ถ้าจะบอกว่าทนายความกำลังจะตกงาน คงเกินจริงไปมาก แต่ที่แน่ๆ คงต้องมีการปรับตัวกันขนานใหญ่รองรับเทคโนโลยีพวกนี้

ข่าวต้นเรื่อง

Deep Learning Machine Beats Humans in IQ Test

Artificial Intelligence to make lawyers redundant

 

Posted in Business Intelligence

Master Data กับ Reference Data – ความเหมือนที่แตกต่าง

ขึ้นต้นหัวเรื่องมาอย่างนี้ หลายคนอาจจะงงว่า มันต่างกันอย่างไร Master data กับ Reference Data  เห็นหลายคน (รวมผมเองในสมัยก่อนด้วย) ใช้สองคำนี้ในความหมายอย่างเดียวกันเลย ใช้แทนกันได้ ภาษาไทยอาจจะใช้คำว่า ข้อมูลอ้างอิง ข้อมูลหลัก หรือคำอื่นๆ แต่ในบทความนี้เราคุยกันทับศัพท์ก็แล้วกัน

ความเหมือนกันระหว่าง master data กับ reference data   มีอยู่มากมายหลายข้อ  บางคนอาจจะมองว่า  reference data ถือเป็น master data ประเภทหนึ่งเลยด้วยซ้ำ  และอีกหลายคนอาจจะมองว่า เป็นเรื่องไร้สาระที่จะมานั่งแยกความแตกต่าง เรียกอะไรก็ได้ ใช้งาน กับจัดการมันเหมือนกันนั่นแหละ

นั่นก็ไม่ถูกต้องเสียทีเดียวนะครับ

ความแตกต่างที่สำคัญ อยู่ที่ขอบเขตการใช้งานครับ ในขณะที่ master data เป็นข้อมูลที่สร้างและถูกใช้งานอยู่ภายในขอบเขตองค์กรใดองค์กรหนึ่ง reference data  มีความเป็นสากลมากกว่านั้น คือมันถูกสร้างและใช้งาน โดยทั่วไป โดยหลากหลายองค์กร หรือแม้กระทั่งใช้งานไปทั่วโลก

ตัวอย่างของ master data ที่เห็นประจำก็คือข้อมูลลูกค้า ข้อมูลสินค้า เป็นข้อมูลภายในของเราเอง จะกำหนดจะจัดการกับมันอย่างใรก็ได้ แต่ reference data อย่างเช่น รหัสไปรษณีย์ รหัสประเทศ รหัสสกุลเงิน  หรืออัตราแลกเปลี่ยนเงินตรา จำพวกนี้ มีหน่วยงานสากลทำหน้าที่ดูแลจัดการข้อมูลพวกนี้อยู่

พอมีความแตกต่างอย่างนี้แล้ว วิธีการจัดการข้อมูลสองประเภทนี้บางส่วนจึงควรแตกต่างกันด้วย

  • Data Governance: ธรรมมาภิบาลข้อมูล ส่วนนี้เป็นเรื่องใหญ่ที่ต้องให้ความสำคัญในกรณีของ master data  แต่ถ้าเป็น reference data มักจะมีหน่วยงานกลางดูแลเรื่องนี้อยู่แล้ว แถมโดยธรรมชาติแล้ว reference data มีการเพิ่มเติมแก้ไขเปลี่ยนแปลงน้อยกว่าอยู่แล้ว เรื่องสำคัญก็คือ จำเป็นต้องรู้ว่า official source ของ reference data  นั้นๆ อยู่ที่ไหน และหน่วยงานไหนเป็นคนดูแล
  • Data Sourcing:  สำหรับ reference data  วิธีที่ดีที่สุด คือการสร้าง pointer ไปที่หน่วยงานเจ้าของข้อมูลโดยตรง  ไม่ต้องมานั่งป้อนนั่งคีย์หรือโหลดข้อมูลกันอย่าง master data แต่ในความเป็นจริงแล้ว ไม่ค่อยมีใครทำกันมากนักในทางปฎิบัติ เห็นแต่นั่งคีย์กันผิดๆ ถูกๆ หรืออย่างดีหน่อยก็ ดาวน์โหลดมาจากต้นทาง แล้วก็ upload ขึ้นไป ชาติหนึ่งก็อัพเดตกันเสียทีหนึ่ง
  • Data Validation & Cleansing: ประเด็นสำคัญคือการสร้าง workflow ที่สามารถตอบสนองกรณียกเว้นต่างๆ ได้  โดยไม่ส่งผลต่อประสิทธิภาพในการทำงาน  ซึ่งในกรณีนี้ reference data อาจจะยุ่งยากกว่า master data อยู่พอสมควร  หากต้องการเปิดคำสั่งซื้อของลูกค้ารายใหม่ที่ยังไม่เคยมีในระบบเลย (master data) ก็แค่ add new customer  ซึ่งเป็นขั้นตอนการทำงานภายในเท่านั้น แต่ถ้าเกิดคุณเจอลูกค้าที่อยู่จังหวัด “บึงกาฬ” (reference) แต่ในระบบของคุณ reference data เก่ากว่า 5 ปีแล้ว รายชื่อจังหวัดยังมีแค่ 76 ชื่อเลย  ทางเลือกแต่ละทางก็ไม่เข้าท่าพอๆ กัน ไม่ว่าจะเป็น ปล่อยว่างไว้ ใส่ชื่อจังหวัดอื่น(มั่วๆ) แทน หรือรอจนกว่า IT จะ update รายชื่อจังหวัดเพิ่มเติม
  • Data Distribution: ความต้องการด้านการกระจายข้อมูลระหว่าง master data กับ reference dataไม่แตกต่างกันมากนัก จุดแตกต่างเห็นจะเป็นแค่ความถี่ในการกระจายข้อมูล โดยธรรมชาติแล้ว reference data มีการเปลี่ยนแปลงไม่บ่อยเท่ากับ master data ไม่จำเป็นต้อง redistribute บ่อยมากนัก
  • Data Versioning & Auditing: ในแง่นี้ เป็นเรื่องท้าทายพอๆ กันระหว่าง master data กับ reference data แต่อย่าได้คิดว่าเมื่อ reference data เปลี่ยนแปลงไม่บ่อยแล้ว เราไม่จำเป็นต้องคิดเรื่อง versioning เลยนะครับ  โดยเฉพาะอย่างยิ่งในงาน business intelligence  ที่มีความต้องการวิเคราะห์ข้อมูลย้อนหลังกันหลายๆ ปี  คุณอาจจะได้เจอกับคำถามประเภทที่ว่า ยอดขายภายในจังหวัดหนองคายจะเป็นเท่าไหร่ ถ้าบึงกาฬไม่ได้แยกตัวออกจากหนองคายเมื่อปี 2553

โดยรวมแล้ว ผมคิดว่า master data กับ reference data  มีความแตกต่างกันพอสมควร  แตกต่างกันมากพอที่เราจะเรียกมันและจัดประเภทให้ถูกต้อง เพื่อให้การจัดการข้อมูลทั้งสองประเภทนี้เกิดประโยชน์สูงสุด แต่มันก็ยังคงเหมือนกันมากพอที่จะใช้ระบบร่วมกันได้ ระบบ MDM (Master Data Management )  แแบบ  multi-domain ควรจะสามารถนำมาใช้จัดการ  reference data ได้ด้วยเช่นกัน   ไม่จำเป็นต้องมี  RDM (Reference Data Management) แยกต่างหาก

Tagged with: , , , ,
Posted in Data Quality

Process Mining เมื่อ Big Data เข้ามาช่วยปรับปรุงกระบวนการทำงาน

หนึ่งในตัวอย่างที่เห็นได้ชัดของการนำ Big Data มาช่วยในงานธุรกิจ โดยทำการวิเคราะห์ข้อมูลจากระบบการทำงานขององค์กร (โดยใช้ข้อมูลที่เกิดขึ้นจริง) แล้วนำมาหาโอกาสที่จะปรับปรุงให้กระบวนการทำงานดีขึ้นได้ เรียกง่ายๆ ก็คือการทำ business process improvement โดยใช้ประโยชน์จาก big data นั่นเอง

ข้อมูลเพิ่มเติม : www.processmining.org
มี course สอนใน coursera ด้วย : Process Mining: Data science in Action

Tagged with: , , ,
Posted in Analytics, Big Data

ปัญหาการเก็บข้อมูลในระบบ Business Intelligence

คุณเคยเบื่อการต้องกรอกข้อมูลบางอย่างซ้ำๆ กันมั้ยครับ? แล้วเคยสงสัยหรือเปล่า ว่าข้อมูลเยอะแยะในแบบสอบถามบางอย่างนี่ เขาจะเอาไปทำอะไรกันนะ

ถ้าคุณเคยมีอาการอย่างข้างต้น ลองนึกภาพถึงเจ้าหน้าที่ที่ต้องป้อนข้อมูลซ้ำๆ กันอยู่ทุกวัน วันละเป็นสิบเป็นร้อยรอบ โดยที่กระบวนการเก็บข้อมูลนั้นอาจทำให้การทำงานหลักต้องช้าลง และที่ร้ายที่สุดก็คือ ข้อมูลที่เก็บไป ไม่ได้ถูกนำไปใช้ให้เกิดประโยชน์อันใดเลย

หลายปีก่อน ผมกับเพื่อนเคยวิเคราะห์สาเหตุที่อัตราการนำอุปกรณ์มือถือไปใช้ในงานขายในฟิลิปปินส์ ไม่ประสบความสำเร็จเท่าที่ควร พนักงานขายจำนวนมากเลิกใช้เครื่อง หันกลับไปจดออเดอร์ด้วยกระดาษเหมือนเดิม เราพบกันว่า กระบวนการเก็บข้อมูลก่อนการขาย ยุ่งยาก และเยอะ จนกระทั่งทำให้ขั้นตอนการขายทั้งหมดช้าลง พนักงานขายใช้เวลากับลูกค้าแต่ละรายมากขึ้น

เจาะลึกลงไป เราพบกันว่า ข้อมูลที่ต้องกรอกก่อนการขายนั้น กว่าครึ่งต้องการเอาไปใช้ในการออกรายงานหรือทำการวิเคราะห์อย่างใดอย่างหนึ่ง แต่สุดท้าย ก็แค่เก็บเอาไว้เฉยๆ

นั่นคือตัวอย่างหนึ่งของกระบวนการเก็บข้อมูล ที่เข้าไปขัดขวางขั้นตอนการทำงานหลักเกินความจำเป็น

สิ่งที่จะเกิดขึ้นเมื่อผู้ใช้ ที่ต้องเป็นคนสร้างข้อมูล เกิดความรู้สึกว่า การป้อนข้อมูล เข้าไปรบกวนการทำงานหลักของพวกเขา ขั้นต่ำก็คือ คุณจะได้แต่ข้อมูลขยะที่ใช้อะไรไม่ได้ พวกเขาจะข้ามฟิลด์ต่างๆ ที่ข้ามได้ไป หรือป้อนอะไรมั่วๆ เข้าไปก็ได้ และขั้นแย่ก็คือ พวกเขาจะไม่ใช้ระบบเลย หันกลับไปใช้วิธีพื้นฐาน อะไรก็ได้ที่ทำให้ผู้ใช้ทำงานหลักได้ สิ่งเหล่านี้จะเห็นชัดเจนขึ้น เมื่อกระบวนการเก็บข้อมูลไม่ได้มีส่วนเกี่ยวข้องกับ KPI ของพวกเขา พนักงานขายที่ถูกประเมินผลงานด้วยยอดขายและจำนวนลูกค้า จะโยนขั้นตอนการเก็บข้อมูลทิ้ง ถ้ามันทำให้พวกเขาขายได้เร็วกว่าเดิม

การหาทางสายกลางที่สมดุลกันระหว่างการเก็บข้อมูลกับขั้นตอนการทำงานปกติ เป็นเรื่องที่จำเป็น เนื่องจากทรัพยากรที่จำกัด ในขณะที่เราต้องการข้อมูลเพื่อช่วยสนับสนุนการตัดสินใจ วิธีแรกๆ ที่องค์กรส่วนใหญ่ทำ คือการ “ฝาก” การเก็บข้อมูลไปกับกระบวนการทำงานหลักด้วย แต่ต้องทำให้แน่ใจว่า การเก็บข้อมูลนั้น ไม่ไปขัดขวางการทำงานหลัก

ข้อควรพิจารณาในการออกแบบกระบวนการเก็บข้อมูล

  • วัตถุประสงค์ที่ชัดเจน นี่หมายถึงวัตถุประสงค์ในระดับข้อมูลแต่ละชิ้นนะครับ ทำไมต้องกรอกข้อมูลในฟิลด์นี้ จะเอาไปช่วยการตัดสินใจในข้อไหนได้บ้าง สำคัญมากน้อยแค่ไหน
  • เข้าใจต้นทุนของการเก็บข้อมูล การเก็บข้อมูลเพิ่มเติมมีต้นทุนเสมอ เพียงแต่ว่า มันอาจจะไม่ได้มองเห็นได้ชัดเจนนัก ต้นทุนเหล่านี้มาในรูปแบบของเวลาที่เสียไปในกระบวนการทำงาน หรือปริมาณงานและความเครียดของพนักงานที่ต้องกรอกข้อมูลเพิ่มมากขึ้น ต้นทุนเหล่านี้ควรนำไปเปรียบเทียบกับวัตถุประสงค์ของการเก็บข้อมูล จะทำให้เราเลือกได้ง่ายขึ้นว่า ควรเก็บข้อมูลอะไรบ้าง จึงจะคุ้มค่าที่สุด
  • ออกแบบระบบอย่างฉลาด มีทางเลือกหลายอย่าง ในการออกแบบระบบการเก็บข้อมูล ที่จะช่วยลดผลกระทบในงานหลักได้ ตั้งแต่การแยกขั้นตอนการเก็บออกไปเลย หรือการดึงข้อมูลเดิมที่มีอยู่แล้วมาใช้ หรือแม้แต่การคำนวณค่าต่างๆ ล่วงหน้า ประเด็นหลักคือต้องคำนึงถึงผลกระทบกับงานหลักเสมอ
  • สร้างแรงจูงใจในการเก็บข้อมูล การอธิบายถึงผลประโยชน์ที่องค์กรจะได้รับ จะช่วยให้คนที่ต้องป้อนข้อมูลเข้าใจวัตถุประสงค์โดยรวมได้ดีขึ้น และจะยิ่งดีเข้าไปอีก ถ้าเราสามารถผูกโยง KPI บางอย่างเข้ากับการเก็บข้อมูลที่เขาต้องทำได้

 

การมีวัตถุประสงค์ที่ชัดเจน เข้าใจต้นทุน ออกแบบขั้นตอนอย่างดี และสร้างแรงจูงใจ จะช่วยให้เราสามารถเก็บข้อมูลที่สำคัญได้ครบถ้วนสำหรับงาน BI ในขณะที่ยังคงรักษาประสิทธิภาพในขั้นตอนการทำงานหลักเอาไว้ได้

Tagged with: , , ,
Posted in Business Intelligence, Data Quality

Characteristics of good data standards

Embed from Getty Images

Good set of data standards lowers data quality issues for your company. Keep these characteristics in mind when you establishing or revising a set of data standards.

Recently one of my client agrees to revamp their master data as a preparation to implement an ERP system. It is a newly found, about a year old, small trading company with only about 100 SKU of products. As I reviews their current master data and proposing a new set of data standards, I found that they suffer the similar challenges as large corporation in relation with data standards, only with different scale.

Sadly, data standards, especially master data, are always an afterthought topic when starting a company. They mainly being forced by technical requirements of the system to support their main operation. Establishing data standards always come to play only when there is a need for a new or upgrade system.

Why do we need to care about data standards? Well, because it directly impacts the quality of data generated for and from your business operations. It is obvious that data quality issues can cause a company lots of unneccessary expenses, missing opportunities, or at a minimum, productivity losses due to rework. A set of proper data standards being follows by the users can significantly reduced, if not completely eliminated, the chance of data quality issue.

Good Data Standards(?)

So how do we define “good” data standards? This is actually subjective. I would like to refer to it as ‘proper’ data standards as it depends on the business context. One indication of a good implementation of data standards is users use it as part of their normal business operation. Not just once every year when they do data clean-up. Of course, there are always some complaints about some standards, or some exceptions here and there, but in general it is being followed and the data quality issue is in-control.

There are 3 characteristics that would help driving good data standards. Being practical, clear linkage to business, and prepare to evolve.

Being Practical

There is no use if you develop a set of data standards that so detail and so perfect thus nobody can follow it during their normal operation. Users will abandon the data standard very soon, they will cut the corner, tricks the system just to be able to create a new customer right now, or change a product description quickly. Keep the strict rules of your data standards as many as needed but as few as possible. In the mean time, there is no hurt to have a set of guidelines or best practices for the users to follow, as long as it doesn’t slow down the business operation flow.

The content detail of the data standards is not as important as the consistency that it is being applied.

Clear linkage to Business

Don’t just set the data standards for the sake of having standards. Every standards must support some kind of the business vision, mission, or strategy. It is always a good idea to plan for the future, if you understand where the business is heading to.

But don’t overdo it, either. You don’t need to force an 8 digits product code for a company with only hundreds of SKUs to prepare for the future growth. Most of the time those 4-5 leading zeros will causes the users to curse you and it will be eliminated when loaded to Excel anyway.

Establishing a good business case when provide training of the standards to users will also help the adoption. Most people are willing to follow the standards if it clear to them how it is going to help the business. Knowing that dummy values in product dimension will cause problem in logistic department will help the data encoding person to try harder to fill the real values.

Prepare to Evolve

Good data standards has to be able to evolve along when business changed. Exception handling processes should be explicitely documented so that users have some way out if they stuck on the process. Transition strategy from legacy set of data standards should also be thought through and executing accordingly. Setting periodic revision cycle in advance provides venue to revise and make data standards up-to-date. This could be one every one, two or three years based on your business pace.

 

Summary

Data standards development is usually an underappreciated work. But it is important nonetheless. The benefit of having good set of good data standards is huge on releasing organization capacity on dealing with data quality issues downstream and become a strong foundation for further business growth.

 

Tagged with: ,
Posted in Data Quality, Data Standards

Data Quality is the name of the game

Embed from Getty Images

Have you ever found a flaw in your map that would cause you time and temper? A recent Wired article “How Google Map Hackers Can Destroy a Business at Will”  shows a case of a 40-years-old restaurant went out of business because of wrong information on Google Map. That flaw causes the owner his life-time business.

While the Wired article focuses on hacking and exploiting the crowdsourcing nature of Google Map to be the main cause of the issue, at the fundamental level, this is a data quality issue.

In the past, it was difficult and costly to alter external data about one’s business. It was an outrageous action to intentionally modify someone’s yellow pages or other directory listing. With that, we tends to focus data quality effort internally only.

With the web 2.0 as everyone can creates content very easily, this can create threat to businesses who underestimate the power of data quality “out there”. Do you know how your business or your brand showned in Wikipedia? Where it locates in Google, Apple or any other maps? What are reviews about your services?, and more importantly, who provides those data – is this coming from you, your customers, or your competitor?

Take charge of accuracy of your business data out there, before somebody else will.

 

 

Tagged with:
Posted in Data Quality

Storytelling – the key to successful data visualization

There is no doubt about importance of data visualization. As the saying goes, A picture is worth a thousand words, or more recently, a picture is worth a thousand data points. With all the excitements about big data and advance analytics, many new products and services emerged with the promise of visualization capabilities that will unleash the full power of big data and analytics.

But technical capability alone can not deliver the successful data visualization effort. I have seen a situation where a dashboard fully loaded with fancy graphs and charts being presented to the users. After listening for almost 5 minutes on the meaning of the each charts, the user still asking for data in tabular format. Something was missing there.

Story makes data relevance

What was missing on those presentations is a story. Data or information itself means very little without a compliment story, regardless of its format. In order to create a compelling story, you will need to understand the business context as well as the user. You’ll need to know what’s decision your visualization is trying to help make. This will need to happen way before you choose what type of charts to use.

What does it take to create a good story

Noah Iliinsky, a leading visualization expert, developed a design principles called Four Pillars of Visualization

  1. Purpose (the why)
  2. Content (the what)
  3. Structure (the how)
  4. Formatting (everything else)

Use these pillars as a framework to create your story. These are more important questions to ask than which tools/vendors to use for visualization.

Do you have a compelling story?

In your next visualization project, make sure that you have focus your energy to get into the compelling story right before any of the technical capability.

 

Tagged with: , , ,
Posted in data visualization
%d bloggers like this: