ในช่วงหลายปีที่ผ่านมานี้ AI ได้เข้ามาเป็นส่วนหนึ่งของชีวิตประจำวันมากขึ้นเรื่อย ๆ จากเรื่องง่าย ๆ อย่างการแนะนำเวลาตื่นนอนที่เหมาะสมกับสุขภาพและชีวิตประจำวันของเรา ไปจนถึงกลางดึกที่เข้ามาแนะนำหนังดี ๆ ที่เติมพลัง ทำให้เรานอนหลับฝันดีพร้อมรับวันใหม่ แต่เชื่อหรือไม่ว่าการเติบโตของ AI อย่างรวดเร็วนี้อาจส่งผลกระทบต่อโลกมากกว่าที่เราคิดไว้
Data Center กินไฟและน้ำมากกว่าที่เราคิด
เบื้องหลังของ AI และบริการต่าง ๆ บนโลกอินเทอร์เน็ตที่เราใช้งานกันนั้นไม่ได้เกิดจากเวทมนตร์แต่อย่างใด เพราะมันเกิดจากเครื่องคอมพิวเตอร์จำนวนมากที่ทำงานพร้อมกัน แค่คิดว่าเครื่องคอมพิวเตอร์ที่บ้านเรากินไฟสักเท่าไหร่ บางเครื่องใส่การ์ดจอสำหรับเล่นเกมเลย อาจจะกดอยู่ราว ๆ 300 – 400 W ต่อเครื่อง แต่เครื่องสำหรับการทำงานด้าน AI ที่ใส่การ์ดจอกันหนัก ๆ เครื่องละ 8 ใบ เราอาจจะกดกันไปได้ถึง 6,000 – 7,000 W ต่อเครื่องได้เลย หรือถ้าเป็นเครื่องที่ให้บริการเว็บแรง ๆ หน่อย ก็อาจจะกดกันได้ถึงเครื่องละ 800 – 1,500 W แล้วนึกภาพว่า ใน Data Center สักแห่งหนึ่งที่มีขนาดใหญ่กว่า 5 สนามฟุตบอลรวมกันน่าจะต้องมีเครื่องคอมพิวเตอร์สักกี่เครื่อง ซึ่งมันกินไฟมากกว่าที่เราคิดเอาไว้มาก ๆ อาจมากจะถึง 10MW หรือ 1,000,000 W หากลองเทียบว่า บ้านสองชั้นทาวน์โฮมสักหลังหนึ่งเปิดแอร์และเครื่องใช้ไฟฟ้าอื่น ๆ ตอนกลางวันแบบพีค ๆ เลย ใช้อยู่ไม่น่าเกิน 3 – 4 kW เท่ากับว่าไฟฟ้าที่ Data Center จะใช้ไฟสักทีหนึ่งเท่ากับบ้านประมาณ 250,000 หลัง เทียบเท่ากับเมืองเล็ก ๆ เมืองหนึ่งได้เลย
หากคิดว่ามันเยอะแล้ว เราลองไปดูสเกลระดับประเทศและโลกกันบ้างดีกว่า มีการเปิดเผยการใช้พลังงานจากรายงาน “2024 United States Data Center Energy Usage Report” ที่จัดจำโดย Lawrence Berkeley National Laboratory’s Center of Expertise for Energy Efficiency in Data Centers ซึ่งได้รับทุนสนับสนุนจากกระทรวงพลังงาน ระบุว่า ในช่วงปี 2014 – 2016 การใช้พลังงานของ Data Center ในสหรัฐฯ ออกไปในแนวค่อนข้างนิ่งที่ 76 TWh หรือเทียบได้กับพลังงาน 1.9% ของการใช้พลังงานทั้งประเทศ แต่พอมาในปี 2023 พลังงานที่ใช้เพิ่มขึ้นเป็น 176 TWh หรือคิดเป็น 4.4% ของการใช้พลังงานทั้งสหรัฐฯ นอกจากนั้นในรายงานนี้ยังมีการประมาณการพลังงานที่อาจจะต้องใช้เพิ่มขึ้นในอนาคตได้ถึง 132 GW ในปี 2028 หรือคิดเป็นกำลังไฟฟ้าถึง 12% ที่ใช้งานในสหรัฐอเมริกาเลยทีเดียว
นอกจากการใช้พลังงานไฟฟ้าที่เพิ่มขึ้นเรื่อย ๆ อย่างน่ากลัวแล้ว อีกส่วนที่ต้องใช้เพิ่มขึ้นอย่างน่าตกใจไม่แพ้กันคือ น้ำ เพราะเครื่อง Server ที่อยู่ใน Data Center เหล่านี้จะต้องใช้น้ำเป็นตัวนำสำหรับการระบายความร้อน คิดง่าย ๆ ว่า เหมือนพวก Water Cooling ที่เราใช้งานในเครื่องคอมพิวเตอร์ตามบ้าน แค่จากเครื่องเดียว Scale Up ขึ้นเป็นหลายพัน หลายหมื่นเครื่อง วิธีการสเกลคือ เขาจะรับน้ำร้อนที่ไหลผ่านเครื่องมาแล้วไปผ่านหม้อน้ำขนาดยักษ์เพื่อระบายความร้อนออกสู่อากาศ แน่นอนว่าระบบพวกนี้ไม่ใช่ระบบปิด มันจะมีการระเหยน้ำเป็นตัวกลางสู่อากาศด้วย นั่นแปลว่าเราจะต้องใช้น้ำหล่อเลี้ยง Data Center อยู่ตลอดเวลา และน้ำที่เขาใช้นั้นจะต้องเป็นน้ำจืด ซึ่งมันคือน้ำที่เราใช้อุปโภคบริโภคนั่นเอง
ถึงเราจะบอกว่าบนโลกของเรามีน้ำถึง 3 ใน 4 ส่วน แต่ส่วนใหญ่กลับเป็นน้ำเค็ม มีเพียง 1% เท่านั้น ที่เราสามารถนำไปใช้ดื่มกินได้ เท่ากับว่าการเพิ่มขึ้นของ Data Center ทำให้มันเข้ามาแย่งน้ำสำหรับการบริโภคของเรา โดยมีรายงานออกมาว่า Data Center โดยเฉลี่ยแล้วจะใช้น้ำมากถึง 300,000 แกลลอน หรือราว ๆ 1.1 ล้านลิตรต่อวัน เพื่อที่จะทำให้เครื่อง Server เย็นลงได้ หรือ เทียบเท่าได้กับการใช้น้ำในบ้าน 100,000 หลังต่อวันเลยทีเดียว เลยทำให้การเติบโตของ Data Center ส่งผลกระทบต่อเรื่องการบริโภคน้ำจืดเป็นอย่างมาก
Data Center แก้ปัญหาเรื่องนี้อย่างไร ?
ปัญหานี้ผู้ให้บริการ Data Center ไม่ได้พึ่งตระหนัก เขามีความพยายามอยู่หลากหลายวิธีการเพื่อที่จะบรรเทาและลดการใช้พลังงานและน้ำให้ได้มากที่สุดเท่าที่จะเป็นไปได้ ไม่ว่าจะด้วยเหตุผลทางสิ่งแวดล้อมเอง หรือเป็นการประหยัดงบประมาณของตัวเอง ขอยกตัวอย่างวิธีการที่น่าสนใจและมีการทดลองเกิดขึ้นจริงแล้วมาให้อ่านกัน
อย่างแรกคือ ความพยายามในการลดการใช้พลังงานของ Server ลงไป ซึ่งก็มีความพยายามหลากหลายรูปแบบมาก ๆ แต่ทุกคนมุ่งเป้าไปที่การสร้างอุปกรณ์ที่มีประสิทธิภาพต่อพลังงานที่สูงมากขึ้น นั่นทำให้หากเราต้องการทำงาน 100 อย่าง เครื่องเดิมอาจจะต้องใช้พลังงาน 5 kWh แต่เครื่องที่ประสิทธิภาพต่อพลังงานดีกว่าอาจจะใช้เพียง 2.5 kWh เท่านั้น หรือก็คือดีกว่าเดิมประมาณ 50% นั่นเอง โดยความพยายามที่เห็นผลเยอะมาก ๆ คือ การเริ่มนำ CPU ในกลุ่มของ RISC ประเภทเดียวกับที่เราใช้บนโทรศัพท์ที่ออกแบบมาเพื่อการประหยัดพลังงานเข้ามาใช้งาน ตัวอย่างเช่น Cloudflare เริ่มมีการใช้ ARM เป็น CPU โดยมีรายงานออกมาว่า มันช่วยเพิ่มประสิทธิภาพต่อพลังงานได้ถึง 57% เมื่อเทียบกับระบบเดิมที่ใช้กันอยู่ หรือกระทั่งในฝั่ง Google เอง มีการผลิต CPU จาก ARM ในชื่อ Neoverse ซึ่ง Google รายงานว่า มันเพิ่มประสิทธิภาพต่อพลังงานสูงขึ้น 60% เมื่อเทียบกับระบบเดิมที่ใช้งานอยู่ ผู้ให้บริการ Cloud Computing รายใหญ่อื่น ๆ ก็เริ่มมีการนำ Hardware เหล่านี้มาให้บริการมากขึ้นเรื่อย ๆ แล้ว
อย่างที่สองคือ ความพยายามในการลดการใช้น้ำสำหรับระบายความร้อน ฝั่ง Microsoft มีไอเดียที่น่าสนใจมาก ๆ จนออกมาเป็น Project Natick คือ ในเมื่อเราต้องใช้น้ำเยอะมาก ๆ ในการระบายความร้อน งั้นเราเอากระบอกใส่ Data Center ขนาดย่อมหย่อนลงไป และอาศัยความเย็นจากน้ำใต้ทะเลทำให้เย็นซะเลยสิ งานนี้เริ่มเอาเครื่องลงไปในปี 2018 และเอากลับขึ้นมาในปี 2020 พูดง่าย ๆ คือ อุปกรณ์นี้อยู่ในน้ำ 2 ปี กลับขึ้นมาปรากฏว่าอุปกรณ์ต่าง ๆ กลับยังอยู่สมบูรณ์มากกว่าเครื่องที่อยู่บนพื้นดินซะอีก อาจเป็นเพราะบนพื้นดินมันอาจจะเสื่อมสภาพเพราะการสัมผัสกับความชื้น, ออกซิเจนในอากาศ, การเปลี่ยนแปลงของอุณหภูมิ และอื่น ๆ อีกมากมาย โดยจากการทดลองนี้ทำให้เราเห็นแล้วว่า นอกจากที่เราจะเอาน้ำใส่เข้าไปใน Data Center แล้ว มันยังมีอีกหลายวิธีการที่จะทำให้เครื่อง Server เย็น และใช้พลังงานในการระบายความร้อนน้อยลงมากกว่าเดิมได้
สรุป
การเติบโตของ AI นั้นเป็นอีกก้าวที่สำคัญในการพัฒนาเทคโนโลยีหลาย ๆ อย่าง จากที่เราเห็นจะพบว่ามันเข้ามาเปลี่ยนแปลงวิถีชีวิตของเราได้มากแค่ไหนในเวลาเพียงไม่กี่ปีเท่านั้น แต่การใช้งานมันแบบสุด ๆ นี้นำมาสู่ความต้องการในการใช้พลังงานและน้ำสำหรับการประมวลผลเพิ่มขึ้นมหาศาล แต่ผู้ให้บริการและผู้ผลิต Hardware ต่างพยายามที่จะลดปัญหาที่อาจจะเกิดขึ้นนี้โดยการคิดค้นวิธีการใหม่ ๆ เข้ามาเพื่อทำให้เครื่องมีประสิทธิภาพมากขึ้น ในขณะที่ลดการใช้พลังงานลงไปเพื่อตอบสนองความต้องการใช้งาน AI และ Cloud Computing ที่มีเพิ่มมากขึ้นเรื่อย ๆ ถือเป็นอีกหัวเรื่องที่น่าสนใจมาก ๆ สำหรับโลกของคอมพิวเตอร์เลยทีเดียว ต้องรอดูกันว่าจะเป็นอย่างไรต่อไป