“Audio Signal” vs. “File Formats” สองสิ่งที่เกือบจะเป็นสิ่งเดียวกัน แต่จริงแล้วต่างกัน

วงการเครื่องเสียงลื่นไถลเข้าสู่ยุคของ digital audio มานานมากแล้ว โดยเริ่มที่วงการโปรเฟสชั่นแนลก่อน ส่วนวงการคอนซูเมอร์หรือกลุ่มของผู้บริโภคทั่วไปอย่างเราๆ ท่านๆ ก็ต้องเริ่มนับหนึ่งกันตั้งแต่ตอนที่ Sony กับ Philips แตะมือแทคทีมกันนำเสนอฟอร์แม็ต CD เข้ามาในวงการเครื่องเสียงนั่นแหละ

เครื่องเล่นซีดีกับแผ่นซีดีเพลงที่ปรากฏตัวออกมาในตลาด พร้อมให้นักเล่นเครื่องเสียงและนักฟังเพลงที่ชื่นชอบเทคโนโลยีได้ซื้อหามาลองใช้ลองฟังกันจริงๆ จังๆ ก็อยู่ในช่วงปี 1981 หลังจากนั้น ฟอร์แม็ตซีดีก็แจ้งเกิดและได้รับความนิยมอย่างสูง ก่อนจะเริ่มโรยลาลงไปเมื่อ 5 – 6 ปีที่ผ่านมา ปัจจุบัน ถือว่าเราอยู่ในยุคของ file based กันแล้ว เป็นยุคที่มีการเปลี่ยนแปลงขั้นมโหฬาร เรียกได้ว่าถึงระดับขุดรากถอนโคนกันเลยทีเดียว ทุกสิ่งทุกอย่างที่คุ้นเคยแทบจะหายไปหมด ในขณะเดียวกันนั้น สิ่งใหม่ก็เริ่มเข้ามาแทนที่พร้อมนำมาซึ่งประสบการณ์ใหม่ๆ ที่น่าตื่นตาตื่นใจ และต้องยอมรับว่า นอกเหนือจากความตื่นตาตื่นใจแล้ว ของใหม่ที่พรั่งพรูเข้ามานี้ ยังได้นำเอาความสับสนอลหม่านเข้ามาสู่สังคมไฮไฟฯ ของเราอีกด้วย

ที่ชัดเจนมากที่สุดก็คือ เทคโนโลยีดิจิตัลซึ่งทำให้คนที่ไม่ได้เกิดในยุคดิจิตัลต้องรู้สึกหัวหมุนกับมันไม่น้อย!

เรียกใหม่ ให้ถูกต้อง

ยังไม่ต้องลงลึกไปถึงความเข้าใจทางด้านเทคโนโลยีดิจิตัลและคอมพิวเตอร์หรอกนะ เอาแค่เรียกชื่ออะไรต่างๆ ให้ถูกต้องอย่างที่มันเป็น แค่นี้ก็ปวดหมองแล้ว.!

แต่เพื่อให้สุนทรียในการเล่นเครื่องเสียงมีความต่อเนื่องและขยับอัพเกรดขึ้นไปได้อย่างถูกต้อง เรามาค่อยๆ เคลียร์กันไปเรื่อยๆ ดีกว่า โดยเริ่มจากเรื่องเล็กๆ ที่เป็นพื้นฐานกันก่อน ซึ่งบทความนี้ผมอยากจะชวนพวกเรามาทำความรู้จักกับ “Audio Signalและ “File Formatsกันก่อน ซึ่งเป็นสองสิ่งที่คนทั่วไปมักจะเรียกชื่อสลับกันไปมาอยู่บ่อยๆ

เพื่อย่นเวลาในการทำความเข้าใจให้สั้นลง ผมขอให้พิจารณาภาพไดอะแกรมข้างบนนี้ประกอบไปกับการอ่านด้วย

เพื่ออธิบาย Audio Signal กับ File Formats ให้เห็นภาพชัดๆ ผมจะขออนุญาตย้อนกลับไปโฟกัสที่ ตัวตนของเสียงกันก่อน โดยถอยหลังไป ณ จุด (A) ในภาพ นั่นคือคลื่นเสียงในธรรมชาติ ซึ่งคลื่นเสียงเป็นพลังงานธรรมชาติชนิดหนึ่ง เกิดขึ้นจากการสั่นของวัตถุในอากาศ ทำให้เกิดการส่งผ่านพลังงานความสั่นสะเทือนไปกับอากาศ ถ้าคลื่นเสียงที่เกิดขึ้นนั้น อยู่ในย่านความถี่ 20Hz ถึง 20kHz และมีความดังมากพอ เมื่อคลื่นเสียงที่มากับอากาศเดินทางมาถึงหูของมนุษย์ มนุษย์ปกติโดยทั่วไปจะ ได้ยินคลื่นเสียงนั้น

มนุษย์เราใช้ประโยชน์จาก เสียงที่ผ่านเข้าสู่รูหู ในการทำความเข้าใจกับสิ่งต่างๆ รอบตัวเรา ถ้าบีบวงให้แคบลง พูดกันเฉพาะในวงการเครื่องเสียงซึ่งใช้ เสียงของเพลงเป็นสื่อในการฟังเพื่อความบันเทิงเริงใจ เสียงเพลงที่นักเล่นเครื่องเสียงใช้เป็นสื่อกลาง (media) ในการเล่นเครื่องเสียง ล้วนเป็นเสียงที่ผ่านขั้นตอนการ บันทึก” (recorded) เก็บไว้ในตัวกลางประเภทต่างๆ อาทิเช่น แผ่นเสียง, แผ่นซีดี, ม้วนเทป และปัจจุบันต้องนับเอาตัวกลางที่เรียกว่า มิวสิค เซิร์ฟเวอร์” (music server) เข้ามารวมอยู่ในกลุ่ม ตัวกลาง” (media) เหล่านี้ด้วย

เส้นทางของเสียงก่อนจะมาอยู่ในตัวกลางแบบต่างๆ

สมมุติว่า เสียงเพลงที่คุณฟังผ่านชุดเครื่องเสียงเป็นเสียงกีต้าร์โปร่ง ซึ่งตัวกลางที่บันทึกเสียงกีต้าร์โปร่งนี้อาจจะเป็นแผ่นเสียง, แผ่นซีดี หรือมิวสิค เซิร์ฟเวอร์ก็ได้ เรามาดูกันซิว่า เสียงกีต้าร์โปร่งตัวนั้น มันเข้าไปอยู่ใน ตัวกลางเหล่านั้นได้อย่างไร

จากจุด (A) ในภาพข้างบน ศิลปินที่คุณชื่นชอบ นั่งเล่นกีต้าร์อยู่ในสตูดิโอเพื่อทำการบันทึกเสียง ณ ขณะเวลานั้น เสียงกีต้าร์ที่ศิลปินเล่นจะอยู่ในรูปของ คลื่นเสียง” (natural sound wave) ซึ่งเป็นปรากฏการณ์ธรรมชาติที่เกิดขึ้นมาชั่วนาตาปี ใครทำอะไรสั่นก็จะเกิดคลื่นเสียง และเพื่อกักเก็บเสียงกีต้าร์ตัวนั้นเอาไว้ ซาวนด์เอนจิเนียร์ที่มีหน้าที่ในการบันทึกเสียง (recording engineer) จะนำไมโครโฟน (B) ไปวางดักคลื่นเสียงของกีต้าร์ตัวนั้นเอาไว้ในตำแหน่งที่สามารถเก็บบันทึกเสียงกีต้าร์ตัวนั้นออกมาได้ดีที่สุด

ไมโครโฟนเก็บคลื่นเสียงได้ยังไง.?

อย่างที่เกริ่นมาข้างต้นว่า คลื่นเสียงเป็นพลังงานอย่างหนึ่งที่เดินทางมากับอากาศด้วยการ ผลักดันและ ผ่อนคลายพลังงานไปกับมวลอากาศต่อเนื่องไปเรื่อยๆ จนกว่าจะหมดพลังงาน แบบเดียวกับคลื่นน้ำนั่นแหละ ถ้าเราลงไปยืนโต้คลื่นในน้ำ เราจะสัมผัสได้ถึง พลังงานของคลื่นที่เดินทางมากับมวลน้ำนั้น

ภายในไมโครโฟนมีโครงสร้างที่สำคัญอยู่ 2 ส่วน ส่วนแรกเรียกว่า ไดอะแฟรมซึ่งมีลักษณะเป็นแผ่นโลหะบางๆ ที่เอาไว้ใช้ต้านกับคลื่นลมเพื่อดูดเอาพลังงานของคลื่นเสียงที่มากับมวลอากาศเอาไว้ เมื่อมีพลังงานคลื่นเสียงเดินทางเข้ามากระทบกับแผ่นไดอะแฟรมที่ว่านี้จนเกิดการสั่นไปตามพลังงานของคลื่นเสียง จะมีกลไกอีกส่วนหนึ่งในไมโครโฟน นั่นคือ ขดลวด” ซึ่งเป็นตัวนำไฟฟ้าที่เชื่อมต่ออยู่กับส่วนของไดอะแฟรม ขดลวดที่ว่านี้จะทำหน้าที่เปลี่ยนพลังงานที่เกิดจากการสั่นของไดอะแฟรมให้ออกมาเป็นไฟฟ้าด้วยการเหนี่ยวนำกับสนามแม่เหล็ก สัญญาณไฟฟ้าที่เกิดขึ้นมาเรียกว่า สัญญาณเสียง” (audio signal)

สรุปแล้ว หลักการของไมโครโฟนก็คือใช้วิธีแปลงพลังงานคลื่นเสียงในธรรมชาติ ให้ออกมาเป็นค่าโวลเตจทางไฟฟ้านั่นเอง

กักมาได้แล้ว ก็เอาไปเก็บบนมาสเตอร์

โวลเตจไฟฟ้าที่ได้จากการขยับตัวของไดอะแฟรมของไมโครโฟนจะมีค่าเปลี่ยนแปลงไปแบบ real-time สูงบ้างต่ำบ้าง ขึ้นอยู่กับพลังงาน หรือปริมาณความดังของคลื่นเสียงที่เดินทางมากับอากาศ หักลบกับความไวของไมโครโฟนที่ใช้บันทึกเสียงนั่นเอง หลังจากดักเก็บสัญญาณเสียงในธรรมชาติออกมาเป็นสัญญาณไฟฟ้าได้แล้ว ขั้นตอนต่อไปก็คือการนำเอาสัญญาณเสียงที่อยู่ในรูปของสัญญาณไฟฟ้านั้นไปเก็บไว้บนสื่อตัวกลาง (media) แบบใดแบบหนึ่ง

ในอดีตซึ่งกระบวนการบันทึกเสียงยังคงใช้เครื่องไม้เครื่องมือและมาตรฐานแบบ analog นั้น ตัวกลาง หรือ media ที่นิยมใช้ในการเก็บสัญญาณเสียงที่อยู่ในรูปของสัญญาณไฟฟ้าก็คือ เส้นเทปแมคเนติก” (magnetic tape)(C) ที่ทำมาจากเส้นเทปพลาสติกที่ฉาบผิวด้วยผงเหล็กอ็อกไซต์ เมื่อสัญญาณเสียงที่อยู่ในรูปของสัญญาณไฟฟ้าจากไมโครโฟนถูกส่งมาที่หัวบันทึกเทปซึ่งมีลักษณะเป็นแท่งแม่เหล็กที่มีรูขนาดเล็กที่สัมผัสกับเส้นเทปที่เคลื่อนไปตลอดเวลา สัญญาณเสียงที่อยู่ในรูปของสัญญาณไฟฟ้าจะวิ่งผ่านรูขนาดเล็กของหัวบันทึกลงไปที่เส้นเทปและทำปฏิริยากับผงโลหะที่ฉาบเคลือบอยู่บนแผ่นเทป ทำให้เกิดเป็นแม่เหล็กที่มีค่าต่างๆ ต่อเนื่องไปเรื่อยๆ

สรุปคือ พลังงานของเสียงกีต้าร์ที่มากับอากาศได้ถูกแปลงรูปเป็นสัญญาณไฟฟ้าและส่งไปบันทึกสำเนาลงบนเส้นเทปเพื่อใช้เป็นมาสเตอร์ในการถ่ายลงตัวกลางอื่นๆ ก่อนนำออกจำหน่าย ซึ่งในขั้นตอนนี้ เสียงเพลงที่ถูกเก็บอยู่ในม้วนมาสเตอร์เทปยังอยู่ในรูปของสัญญาณ analog ซึ่งเราเรียกมันว่า สัญญาณเสียงหรือ audio signal ยังไม่มีคำจำกัดความอื่นๆ เข้ามายุ่ง อย่างเช่นฟอร์แม็ต หรือไฟล์

การบันทึกเสียงในยุคดิจิตัล

ในย่อหน้าข้างบนนั้น เป็นสิ่งที่เกิดขึ้นในสตูดิโอบันทึกเสียงยุคที่ยังใช้มาตรฐาน analog อย่างเดียว ทว่า ในปัจจุบันนี้ เกือบจะทุกสตูดิโอแล้วที่เปลี่ยนรูปแบบและมาตรฐานการบันทึกเสียงมาใช้มาตรฐาน digital แทน และอาจจะยังคงมีบางสตูดิโอที่บันทึกมาสเตอร์เก็บไว้ทั้ง analog และ digital

ในกรณีที่ต้องการเก็บบันทึกสัญญาณเสียงจากไมโครโฟนที่อยู่ในรูปของสัญญาณไฟฟ้าลงไปบนมาสเตอร์ดิจิตัล อย่างเช่น ในฮาร์ดดิส (C) ซาวนด์เอนจิเนียร์ที่ดูแลการทำมาสเตอร์จะต้องจัดเตรียมอุปกรณ์อิเล็กทรอนิคส์เข้ามาเพิ่มเติมอีกส่วนหนึ่ง เพื่อทำหน้าที่ในการแปลงเปลี่ยนสัญญาณเสียงจากไมโครโฟนที่อยู่ในรูปของสัญญาณไฟฟ้า ให้ออกมาเป็นสัญญาณดิจิตัล ออดิโอซะก่อน (digital audio signal) ซึ่งมีอยู่ 2 รูปแบบเทคโนโลยีให้เลือกใช้ นั่นคือ PCM (Pulse Code Modulation) กับ DSD (Direct Stream Digital)

สรุปในขั้นตอนนี้ เมื่อสัญญาณเสียงจากไมโครโฟนที่อยู่ในรูปของสัญญาณไฟฟ้า ถูกนำไปเก็บไว้ในตัวกลางที่เป็นมาสเตอร์ จะแบ่งออกได้เป็นสองรูปแบบ ถ้านำไปเก็บบนม้วนเทปแมคคานิก สัญญาณเสียงจากไมโครโฟนก็จะยังคงอยู่ในรูปของสัญญาณไฟฟ้าเหมือนเดิม แต่ถ้านำไปเก็บบนฮาร์ดดิส สัญญาณเสียงจากไมโครโฟนที่อยู่ในรูปของสัญญาณไฟฟ้าจะถูกแปลงให้ไปอยู่ในรูปของข้อมูลดิจิตัล (แม้ว่าพื้นฐานของตัวสัญญาณจะยังคงเป็นไฟฟ้าอยู่ก็ตาม)

ถึงขั้นตอนจะเอาไปฟังกับชุดเครื่องเสียง

ในยุคปัจจุบัน สื่อกลางที่ใช้เก็บสัญญาณเสียงเพลงที่นักเล่นเครื่องเสียงใช้กันอย่างแพร่หลายก็มีอยู่แค่ 2 ประเภทคือ แผ่นเสียงกับ ไฟล์เพลงซึ่งสื่อกลางทั้งสองประเภทนี้ต้องใช้อุปกรณ์เครื่องเล่นที่มีลักษณะต่างกัน ไม่สามารถใช้ร่วมกันได้

ในกรณีที่สตูดิโอต้องการทำอัลบั้มเพลงออกมาเป็นแผ่นเสียง เขาก็จะนำเอาสัญญาณเสียงเพลงที่อยู่ในม้วนมาสเตอร์เทปไปทำมาสเตอร์เพื่อเข้ากระบวนการตัดแผ่นเสียงโดยไม่ต้องทำการเปลี่ยนแปลงรูปแบบของสัญญาณเสียงที่อยู่บนม้วนเทปแต่อย่างใด แต่ถ้าต้นสังกัดเจ้าของลิขสิทธิ์อัลบั้มเพลงนั้น ต้องการทำออกมาเป็นไฟล์เพลงดิจิตัล สัญญาณเสียงเพลงที่อยู่ในม้วนมาสเตอร์เทปจะต้องถูกนำไปผ่านขั้นตอนแปลงให้อยู่ในรูปของสัญญาณดิจิตัลซะก่อน ด้วยอุปกรณ์อิเล็กทรอนิคส์ที่เรียกว่า Analog-to-Digital converter หรือ A/D converter ซึ่งเจ้าของผลงานเพลงนั้นต้องเลือกด้วยว่า จะทำออกมาเป็นสัญญาณดิจิตัลมาตรฐานไหน ระหว่าง PCM กับ DSD และต้องเลือกอีกว่า จะแปลงสัญญาณมาสเตอร์อะนาลอก ออกมาเป็นสัญญาณดิจิตัลที่มี ความละเอียด” (resolution) สูงแค่ไหน.? อย่างเช่น ทำออกมาเป็นสัญญาณ PCM 24/96 หรือสัญญาณ PCM 24/192 หรือจะเป็นสัญญาณ DSD ที่ความละเอียดเท่ากับ 2.8MHz (DSD64) หรือจะขยับให้สูงขึ้นไปถึงระดับ DSD 5.6MHz (DSD128) ก็สามารถทำได้ทั้งหมดตราบเท่าที่เครื่องมือในสตูดิโออำนวย

สรุปอีกที ในขั้นตอนนี้จะเห็นว่า ถ้าจากมาสเตอร์เทปอะนาลอก เอาไปทำแผ่นเสียง สัญญาณเสียงบนแผ่นเสียงก็จะยังคงอยู่ในรูปของ สัญญาณอะนาลอกเหมือนต้นฉบับ แต่ถ้านำไปทำไฟล์เพลง สัญญาณเสียงอะนาลอกในม้วนมาสเตอร์เทปจะต้องถูกแปลงให้เป็น สัญญาณเสียงดิจิตัลซะก่อนจะนำไปทำเป็นไฟล์เพลง ซึ่งหลังจากแปลงเป็นดิจิตัลแล้ว เราก็ยังเรียกว่า สัญญาณเสียงอยู่ดี นั่นคือ สัญญาณ PCM หรือสัญญาณ DSD

อ่านมาถึงตอนนี้ ให้สังเกตว่า เรายังไม่มีคำว่า ฟอร์แม็ตออกมาเลย เราใช้คำเรียกว่า สัญญาณเสียงมาตลอด ตั้งแต่ขั้นตอนบันทึกเสียงจนถึงขั้นตอนนำเอาสัญญาณเสียงในม้วนมาสเตอร์เทปไปทำแผ่นเสียงหรือไฟล์เพลง

เมื่อผ่านเข้าคอมพิวเตอร์ อะไรๆ เริ่มเปลี่ยนไป

หลังจากสัญญาณเสียงอะนาลอกในม้วนมาสเตอร์เทป ถูกแปลงให้เป็นสัญญาณดิจิตัลแล้ว ไม่ว่าจะเป็นสัญญาณรูปแบบไหนระหว่าง PCM กับ DSD สัญญาณดิจิตัลทั้งสองชนิดนี้ก็ยังไม่สามารถนำไปใช้งานในคอมพิวเตอร์หรือในระบบเน็ทเวิร์คได้ สาเหตุก็เพราะว่า ระบบปฏิบัติการณ์ (Operating System) ที่ใช้อยู่ในคอมพิวเตอร์ทั้งหมด ไม่ว่าจะเป็น Windows, OS X หรือ Linux มันไม่ได้ถูกออกแบบมาให้จัดการกับ สัญญาณเสียงโดยตรง ถึงแม้ว่าสัญญาณนั้นจะอยู่ในรูปของข้อมูลดิจิตัลก็ตาม ระบบปฏิบัติการณ์บนคอมพิวเตอร์จะไม่สามารถสั่งให้โปรแกรมเล่นไฟล์เพลงไปดึง สัญญาณเพลงมาเล่นได้โดยตรง ไม่ว่าจะเป็นสัญญาณ PCM หรือ DSD

การที่จะเอาสัญญาณ PCM หรือ DSD เข้าสู่ระบบคอมพิวเตอร์และระบบเน็ทเวิร์ค จำเป็นต้องนำสัญญาณ PCM หรือสัญญาณ DSD ไป “เข้ารหัส(encode) ซะก่อน (D) พูดให้เข้าใจง่ายๆ ก็คือ นำสัญญาณ PCM หรือ DSD ไปใส่ลงใน หีบห่อ” (package) ของ “File Formatsที่ระบบคอมพิวเตอร์และเน็ทเวิร์ครู้จักซะก่อน อาทิเช่น WAV, FLAC, AIFF, MP3, DSF, DIFF (E) และอีกมากมาย

“File Formats” ประเภทต่างๆ

เริ่มร้องอ๋อ.. กันแล้วล่ะซิ.! ทีนี้คุณจะเข้าใจง่ายขึ้นเยอะเลย ถ้าผมจะบอกว่า WAV, FLAC, AIFF, MP3, DSF, DIFF และอีกมากมาย ทั้งหมดเหล่านั้นก็คือ “File Formatsที่ระบบคอมพิวเตอร์และระบบเน็ทเวิร์ครู้จักนั่นเอง

เวลาคุณเล่นไฟล์ FLAC ผ่านโปรแกรมเล่นไฟล์เพลงบนคอมพิวเตอร์ หรือผ่านตัวเน็ทเวิร์คเพลเยอร์ ให้สังเกตว่า ไฟล์เพลงสองโฟลเดอร์ ซึ่งเป็นฟอร์แม็ต FLAC เหมือนกัน แต่ สัญญาณเสียงเพลงที่บรรจุอยู่ในไฟล์ฟอร์แม็ตเหล่านั้น อาจจะมีสเปคฯ ต่างกัน อาทิเช่น สัญญาณเพลงดิจิตัลที่อยู่ในไฟล์ฟอร์แม็ต FLAC อัลบั้มหนึ่งอาจจะเป็นสัญญาณ PCM 24/96 ในขณะเดียวกัน สัญญาณเพลงดิจิตัลที่อยู่ในไฟล์ฟอร์แม็ต FLAC อีกอัลบั้มหนึ่ง อาจจะเป็นสัญญาณ PCM 24/192 หรือ PCM 24/88.2 หรือ PCM 16/44.1 และอีกหลายสเปคฯ

อีกด้านหนึ่ง ถ้าคุณลองคลิ๊กเข้าไปดูสัญญาณเสียงเพลงดิจิตัลที่บรรจุอยู่ในไฟล์ฟอร์แม็ต DSF หลายๆ อัลบั้ม แล้วเอามาเทียบกันดู คุณจะพบว่า ไฟล์ฟอร์แม็ต DSF ของบางอัลบั้มนั้นมีสัญญาณเสียง DSD 2.8MHz อยู่ในนั้น ในขณะที่ ไฟล์ฟอร์แม็ต DSF บางอัลบั้ม อาจจะมีสัญญาณเสียง DSD 5.6MHz อยู่ในนั้นก็ได้

สรุปก็คือว่า WAV, FLAC, AIFF, MP3, ALAC, DSF, DIFF และอีกมากมาย เหล่านี้คือ ไฟล์ฟอร์แม็ต” (File Formats) ในขณะที่ สิ่งที่อยู่ในไฟล์ฟอร์แม็ตทั้งหลาย อันได้แก่ PCM 16/44.1, PCM 24/44.1, PCM 24/48, PCM 24/88.2, PCM 24/96, PCM 24/176.4, PCM 24/192 ไปจนถึง PCM 32/384 รวมถึง DSD64, DSD128, DSD256 ไปจนถึง DSD512 เหล่านี้คือ สัญญาณเสียง” (Audio Signal) ที่อยู่ในรูปของสัญญาณดิจิตัลทั้งหมดนั่นเอง /

************************

mm

About ธานี โหมดสง่า

View all posts by ธานี โหมดสง่า