บ้าน >  ข่าว >  พลังการใช้เหตุผลของ AI ขนาดกะทัดรัด: ท้าทาย GPT?

พลังการใช้เหตุผลของ AI ขนาดกะทัดรัด: ท้าทาย GPT?

by Hannah Apr 07,2025

ในช่วงไม่กี่ปีที่ผ่านมาสนาม AI ได้รับความสำเร็จจากความสำเร็จของแบบจำลองภาษาขนาดใหญ่ (LLMS) ได้รับการออกแบบมาในขั้นต้นสำหรับการประมวลผลภาษาธรรมชาติแบบจำลองเหล่านี้ได้พัฒนาเป็นเครื่องมือให้เหตุผลที่ทรงพลังที่สามารถแก้ไขปัญหาที่ซับซ้อนด้วยกระบวนการคิดแบบเป็นขั้นตอนของมนุษย์ทีละขั้นตอน อย่างไรก็ตามแม้จะมีความสามารถในการใช้เหตุผลที่ยอดเยี่ยม LLM นั้นมาพร้อมกับข้อเสียที่สำคัญรวมถึงค่าใช้จ่ายในการคำนวณที่สูงและความเร็วในการปรับใช้ที่ช้าทำให้พวกเขาใช้งานไม่ได้สำหรับการใช้งานในโลกแห่งความเป็นจริงในสภาพแวดล้อมที่ จำกัด ทรัพยากรเช่นอุปกรณ์มือถือหรือการคำนวณขอบ สิ่งนี้นำไปสู่ความสนใจที่เพิ่มขึ้นในการพัฒนาโมเดลขนาดเล็กและมีประสิทธิภาพมากขึ้นซึ่งสามารถให้ความสามารถในการใช้เหตุผลที่คล้ายกันในขณะที่ลดต้นทุนและความต้องการทรัพยากรให้น้อยที่สุด บทความนี้สำรวจการเพิ่มขึ้นของรูปแบบการใช้เหตุผลขนาดเล็กเหล่านี้ศักยภาพความท้าทายและความหมายสำหรับอนาคตของ AI

การเปลี่ยนแปลงในมุมมอง

สำหรับประวัติล่าสุดของ AI เมื่อเร็ว ๆ นี้สนามได้ปฏิบัติตามหลักการของ "กฎหมายการปรับขนาด" ซึ่งแสดงให้เห็นว่าประสิทธิภาพของแบบจำลองดีขึ้นอย่างคาดการณ์ได้ว่าเป็นข้อมูลการคำนวณพลังงานและการเพิ่มขนาดของแบบจำลอง ในขณะที่วิธีการนี้ให้แบบจำลองที่มีประสิทธิภาพ แต่ก็ส่งผลให้เกิดการแลกเปลี่ยนอย่างมีนัยสำคัญรวมถึงต้นทุนโครงสร้างพื้นฐานที่สูงผลกระทบต่อสิ่งแวดล้อมและปัญหาเวลาแฝง แอปพลิเคชั่นทั้งหมดไม่ต้องการความสามารถเต็มรูปแบบของโมเดลขนาดใหญ่ที่มีพารามิเตอร์หลายร้อยพันล้านพารามิเตอร์ ในหลายกรณีในทางปฏิบัติ-เช่นผู้ช่วยในอุปกรณ์การดูแลสุขภาพและการศึกษา-แบบจำลองที่มีการขายสามารถบรรลุผลลัพธ์ที่คล้ายกันได้หากพวกเขาสามารถให้เหตุผลได้อย่างมีประสิทธิภาพ

ทำความเข้าใจการใช้เหตุผลใน AI

การใช้เหตุผลใน AI หมายถึงความสามารถของโมเดลในการปฏิบัติตามโซ่ตรรกะเข้าใจสาเหตุและผลกระทบอนุมานผลกระทบขั้นตอนการวางแผนในกระบวนการและระบุความขัดแย้ง สำหรับแบบจำลองภาษาสิ่งนี้มักจะหมายถึงไม่เพียง แต่ดึงข้อมูล แต่ยังจัดการและอนุมานข้อมูลผ่านวิธีการที่มีโครงสร้างทีละขั้นตอน การให้เหตุผลในระดับนี้มักจะทำได้โดยการปรับจูน LLM เพื่อดำเนินการให้เหตุผลหลายขั้นตอนก่อนที่จะมาถึงคำตอบ ในขณะที่มีประสิทธิภาพวิธีการเหล่านี้ต้องการทรัพยากรการคำนวณที่สำคัญและอาจช้าและมีค่าใช้จ่ายสูงในการปรับใช้ทำให้เกิดความกังวลเกี่ยวกับการเข้าถึงและผลกระทบต่อสิ่งแวดล้อม

ทำความเข้าใจกับแบบจำลองการใช้เหตุผลขนาดเล็ก

แบบจำลองการใช้เหตุผลขนาดเล็กมีจุดมุ่งหมายเพื่อทำซ้ำความสามารถในการใช้เหตุผลของโมเดลขนาดใหญ่ แต่มีประสิทธิภาพมากขึ้นในแง่ของพลังงานการคำนวณการใช้หน่วยความจำและเวลาแฝง แบบจำลองเหล่านี้มักจะใช้เทคนิคที่เรียกว่าการกลั่นความรู้ซึ่งเป็นแบบจำลองขนาดเล็ก ("นักเรียน") เรียนรู้จากแบบจำลองขนาดใหญ่ที่ผ่านการฝึกอบรมมาก่อน ("ครู") กระบวนการกลั่นเกี่ยวข้องกับการฝึกอบรมโมเดลขนาดเล็กบนข้อมูลที่สร้างขึ้นโดยรุ่นที่ใหญ่กว่าโดยมีเป้าหมายในการถ่ายโอนความสามารถในการให้เหตุผล แบบจำลองนักเรียนได้รับการปรับแต่งเพื่อปรับปรุงประสิทธิภาพ ในบางกรณีการเรียนรู้การเสริมแรงด้วยฟังก์ชั่นการให้รางวัลเฉพาะโดเมนพิเศษจะถูกนำไปใช้เพื่อเพิ่มความสามารถของโมเดลในการดำเนินการให้เหตุผลเฉพาะงาน

การเพิ่มขึ้นและความก้าวหน้าของรูปแบบการใช้เหตุผลขนาดเล็ก

เหตุการณ์สำคัญที่โดดเด่นในการพัฒนารูปแบบการใช้เหตุผลขนาดเล็กมาพร้อมกับการเปิดตัว Deepseek-R1 แม้จะได้รับการฝึกฝนเกี่ยวกับกลุ่ม GPU รุ่นเก่าที่ค่อนข้างเรียบง่าย ความสำเร็จนี้นำไปสู่การพิจารณาวิธีการปรับขนาดแบบดั้งเดิมซึ่งสันนิษฐานว่าแบบจำลองขนาดใหญ่นั้นเหนือกว่าโดยเนื้อแท้

ความสำเร็จของ Deepseek-R1 สามารถนำมาประกอบกับกระบวนการฝึกอบรมที่เป็นนวัตกรรมซึ่งรวมการเรียนรู้การเสริมแรงขนาดใหญ่โดยไม่ต้องพึ่งพาการปรับแต่งการปรับแต่งในช่วงแรก นวัตกรรมนี้นำไปสู่การสร้าง Deepseek-R1-Zero ซึ่งเป็นแบบจำลองที่แสดงให้เห็นถึงความสามารถในการใช้เหตุผลที่น่าประทับใจเมื่อเทียบกับแบบจำลองการใช้เหตุผลขนาดใหญ่ การปรับปรุงเพิ่มเติมเช่นการใช้ข้อมูลเริ่มต้นเย็นปรับปรุงการเชื่อมโยงและการปฏิบัติงานของโมเดลโดยเฉพาะอย่างยิ่งในพื้นที่เช่นคณิตศาสตร์และรหัส

นอกจากนี้เทคนิคการกลั่นได้พิสูจน์แล้วว่ามีความสำคัญในการพัฒนาแบบจำลองขนาดเล็กและมีประสิทธิภาพมากขึ้นจากขนาดใหญ่ ตัวอย่างเช่น Deepseek ได้เปิดตัวรุ่นกลั่นด้วยขนาดตั้งแต่ 1.5 พันล้านถึง 70 พันล้านพารามิเตอร์ การใช้แบบจำลองเหล่านี้นักวิจัยได้ฝึกอบรมแบบจำลองที่เล็กกว่ามาก Deepseek-R1-Distill-Qwen-32B ซึ่งมีประสิทธิภาพสูงกว่า O1-Mini ของ OpenAI ในมาตรฐานต่างๆ ตอนนี้รุ่นเหล่านี้สามารถปรับใช้งานได้ด้วยฮาร์ดแวร์มาตรฐานทำให้เป็นตัวเลือกที่ทำงานได้มากขึ้นสำหรับแอปพลิเคชันที่หลากหลาย

รุ่นขนาดเล็กสามารถจับคู่เหตุผลระดับ GPT ได้หรือไม่?

ในการประเมินว่าแบบจำลองการใช้เหตุผลขนาดเล็ก (SRMS) สามารถจับคู่พลังการใช้เหตุผลของรุ่นขนาดใหญ่ (LRMS) เช่น GPT หรือไม่การประเมินประสิทธิภาพของพวกเขาในมาตรฐานมาตรฐาน ตัวอย่างเช่นโมเดล Deepseek-R1 ทำคะแนนประมาณ 0.844 ในการทดสอบ MMLU เทียบได้กับรุ่นที่ใหญ่กว่าเช่น O1 ในชุดข้อมูล GSM-8K ซึ่งมุ่งเน้นไปที่คณิตศาสตร์เกรดโรงเรียน Deepseek-R1 ของ Deepseek-R1 ได้รับประสิทธิภาพระดับสูงกว่า O1 และ O1-MINI

ในงานการเข้ารหัสเช่นใน LiveCodeBench และ CodeForces โมเดลกลั่น Deepseek-R1 ของ Deepseek-R1 นั้นทำเช่นเดียวกันกับ O1-MINI และ GPT-4O แสดงให้เห็นถึงความสามารถในการใช้เหตุผลที่แข็งแกร่งในการเขียนโปรแกรม อย่างไรก็ตามโมเดลขนาดใหญ่ยังคงมีความได้เปรียบในงานที่ต้องการความเข้าใจภาษาที่กว้างขึ้นหรือจัดการหน้าต่างบริบทที่ยาวนานเนื่องจากโมเดลขนาดเล็กมักจะเป็นงานที่เฉพาะเจาะจงมากขึ้น

แม้จะมีจุดแข็งของพวกเขาโมเดลขนาดเล็กสามารถต่อสู้กับงานการใช้เหตุผลเพิ่มเติมหรือเมื่อต้องเผชิญกับข้อมูลนอกการกระจาย ตัวอย่างเช่นในการจำลองหมากรุก LLM Deepseek-R1 ทำผิดพลาดมากกว่าโมเดลขนาดใหญ่แนะนำข้อ จำกัด ในความสามารถในการรักษาโฟกัสและความแม่นยำในระยะเวลานาน

การแลกเปลี่ยนและผลกระทบเชิงปฏิบัติ

การแลกเปลี่ยนระหว่างขนาดรุ่นและประสิทธิภาพมีความสำคัญเมื่อเปรียบเทียบ SRMS กับ LRM ระดับ GPT รุ่นขนาดเล็กต้องการหน่วยความจำน้อยลงและพลังการคำนวณทำให้เหมาะสำหรับอุปกรณ์ขอบแอพมือถือหรือสถานการณ์ที่จำเป็นต้องมีการอนุมานออฟไลน์ ประสิทธิภาพนี้ส่งผลให้ต้นทุนการดำเนินงานลดลงด้วยแบบจำลองเช่น Deepseek-R1 ซึ่งมีราคาถูกกว่า 96% ในการทำงานมากกว่ารุ่นที่ใหญ่กว่าเช่น O1

อย่างไรก็ตามการเพิ่มประสิทธิภาพเหล่านี้มาพร้อมกับการประนีประนอม โดยทั่วไปแล้วรุ่นที่เล็กกว่าจะได้รับการปรับแต่งสำหรับงานที่เฉพาะเจาะจงซึ่งสามารถจำกัดความเก่งกาจของพวกเขาเมื่อเทียบกับรุ่นที่ใหญ่กว่า ตัวอย่างเช่นในขณะที่ Deepseek-R1 เก่งในวิชาคณิตศาสตร์และการเข้ารหัส แต่ก็ไม่มีความสามารถหลายอย่างเช่นความสามารถในการตีความภาพซึ่งรุ่นที่ใหญ่กว่าเช่น GPT-4O สามารถจัดการได้

แม้จะมีข้อ จำกัด เหล่านี้การใช้งานจริงของแบบจำลองการใช้เหตุผลขนาดเล็กนั้นกว้างใหญ่ ในการดูแลสุขภาพพวกเขาสามารถใช้พลังงานเครื่องมือวินิจฉัยที่วิเคราะห์ข้อมูลทางการแพทย์บนเซิร์ฟเวอร์โรงพยาบาลมาตรฐาน ในการศึกษาพวกเขาสามารถใช้ในการพัฒนาระบบการสอนส่วนบุคคลให้ข้อเสนอแนะทีละขั้นตอนกับนักเรียน ในการวิจัยทางวิทยาศาสตร์พวกเขาสามารถช่วยในการวิเคราะห์ข้อมูลและการทดสอบสมมติฐานในสาขาเช่นคณิตศาสตร์และฟิสิกส์ ธรรมชาติของโมเดลโอเพ่นซอร์สเช่น Deepseek-R1 ยังส่งเสริมการทำงานร่วมกันและการเข้าถึง AI เป็นประชาธิปไตยทำให้องค์กรขนาดเล็กได้รับประโยชน์จากเทคโนโลยีขั้นสูง

บรรทัดล่าง

วิวัฒนาการของแบบจำลองภาษาในรูปแบบการให้เหตุผลที่เล็กกว่านั้นเป็นความก้าวหน้าที่สำคัญใน AI แม้ว่าโมเดลเหล่านี้อาจยังไม่ตรงกับความสามารถในวงกว้างของแบบจำลองภาษาขนาดใหญ่ แต่ก็มีข้อได้เปรียบที่สำคัญในด้านประสิทธิภาพความคุ้มค่าและการเข้าถึง ด้วยการสร้างความสมดุลระหว่างพลังการใช้เหตุผลและประสิทธิภาพของทรัพยากรโมเดลขนาดเล็กจะถูกตั้งค่าให้มีบทบาทสำคัญในการใช้งานที่หลากหลายทำให้ AI ใช้งานได้จริงและยั่งยืนมากขึ้นสำหรับการใช้งานในโลกแห่งความเป็นจริง

เกมที่กำลังมาแรง มากกว่า >