ข่าวใหญ่! OpenAI เปิดซอร์สอย่างเป็นทางการ GPT-OSS OpenAI ในที่สุดก็ “เปิด” แล้ว
OpenAI เปิดซอร์สโมเดลน้ำหนัก GPT-OSS เป็นครั้งแรก สามารถรันบนคอมพิวเตอร์ทั่วไปได้แบบท้องถิ่น รองรับหลายแพลตฟอร์ม และสนับสนุนการคิดเชิงลำดับและการเรียกใช้งานเครื่องมือ ประสิทธิภาพของโมเดลใกล้เคียงกับเวอร์ชันที่ปิดซอร์ส.
เมื่อวันที่ 5 สิงหาคม OpenAI ในที่สุดก็ได้ออกจากกำแพงของการปิดซอร์ส และได้เปิดตัวน้ำหนักโมเดล GPT-OSS ใหม่ทั้งหมด นี่คือครั้งแรกในรอบหกปีที่ OpenAI “เปิด” น้ำหนักของโมเดลขนาดใหญ่ที่มีความหมายที่แท้จริง หลังจาก GPT-2 ในปี 2019 ไม่ว่าจะเป็นนักพัฒนาทั่วไป หรือบริษัทที่มุ่งเน้นความเป็นส่วนตัวและการลดต้นทุน ตอนนี้ทุกคนสามารถรันโมเดล AI ที่มีต้นกำเนิดเดียวกันกับ ChatGPT ได้โดยตรงบนฮาร์ดแวร์ของตนเอง
ภาพรวมโมเดล GPT-OSS
ครั้งนี้เปิดตัวซีรีส์ gpt-oss มีสองรุ่น:
- gpt-oss-120b: มีพารามิเตอร์ประมาณ 1170 ล้านตัว ใช้สถาปัตยกรรม MoE (Mixture of Experts) มีความสามารถในการอนุมานและตรรกะที่แข็งแกร่ง ออกแบบมาเพื่อการอนุมานขั้นสูงและการนำไปใช้งานอย่างเป็นทางการ ประสิทธิภาพใกล้เคียงกับโมเดลปิดของ OpenAI รุ่น o4-mini
- gpt-oss-20b: มีพารามิเตอร์ 21,000 ล้านตัว เหมาะสำหรับการใช้งานในท้องถิ่นและสถานการณ์เฉพาะ ใช้การ์ดจอระดับผู้บริโภคทั่วไป (แรม 16GB) หรือโน้ตบุ๊กที่มีสเปกค่อนข้างสูงก็สามารถรันได้อย่างง่ายดาย ประสิทธิภาพใกล้เคียงกับ o3-mini
ทั้งสองรุ่นใช้ ใบอนุญาต Apache 2.0 อนุญาตให้ใช้งานเชิงพาณิชย์ได้ฟรี โดยไม่ต้องขออนุญาตและชำระเงิน เพียงดาวน์โหลดก็สามารถใช้ได้เลย
ประสิทธิภาพและจุดเด่นของการใช้งาน
- ความสามารถในการ คิดเชิงลำดับ (CoT) และการเรียกใช้งานเครื่องมือ สะดวกสำหรับการรวมระบบอัตโนมัติที่ซับซ้อนในหลายสถานการณ์
- สนับสนุนการใช้ในท้องถิ่นแบบส่วนตัว ควบคุมข้อมูลได้อย่างเต็มที่ ลดการพึ่งพาคลาวด์และความเสี่ยงด้านความเป็นส่วนตัว
- การประเมินประสิทธิภาพแสดงให้เห็นว่า รุ่น 120b ทำได้ดีกว่ารุ่น o3-mini ในด้านการเขียนโปรแกรม, คณิตศาสตร์, คำถามด้านสุขภาพ และการเรียกใช้งานเครื่องมือ โดยมีประสิทธิภาพใกล้เคียงกับ o4-mini รุ่น 20b ก็มีความโดดเด่นในระดับพารามิเตอร์เดียวกัน
- รองรับการป้อนข้อมูลบริบทสูงสุด 128k เหมาะสำหรับความต้องการเอกสารยาวหรือภารกิจที่ซับซ้อน
เริ่มต้นใช้งานอย่างรวดเร็ว: สามวิธีในการติดตั้งในท้องถิ่น
วิธีที่หนึ่ง: Ollama (เหมาะสำหรับผู้ใช้ส่วนใหญ่)
- ดาวน์โหลดไคลเอนต์ Ollama
- ดึงโมเดล: sh ollama pull gpt-oss:20b # หรือ gpt-oss:120b
- รันการสนทนาโดยตรง: sh ollama run gpt-oss:20b
- เรียกใช้งานผ่าน API: python from openai import OpenAI client = OpenAI(base_url="http://localhost:11434/v1", api_key="ollama") resp = client.chat.completions.create(model="gpt-oss:20b", messages={"role":"user","content":"Hello!"}) print(resp)
วิธีที่สอง: Transformers (ยืดหยุ่นมาก เหมาะสำหรับนักพัฒนา)
- ติดตั้งไลบรารีที่จำเป็น: sh pip install transformers accelerate torch triton kernels
- โหลดและทำการอนุมาน: python from transformers import pipeline pipe = pipeline("text-generation", model="openai/gpt-oss-20b", torch_dtype="auto", device_map="auto") output = pipe({"role": "user", "content": "Explain quantum mechanics"}, max_new_tokens=200) print(output[0]"generated_text")
- เริ่มบริการท้องถิ่น ให้สามารถเข้าถึง API:
sh
transformers serve
เปิดเทอร์มินัลอีกหนึ่ง
transformers chat localhost:8000 --model-name-or-path openai/gpt-oss-20b
วิธีที่สาม: llama.cpp (การติดตั้งที่เบาที่สุด รองรับอุปกรณ์ที่ไม่มี GPU)
- ติดตั้ง llama.cpp และตั้งค่า Hugging Face CLI
- ดาวน์โหลดไฟล์โมเดลที่ถูกควบคุมด้วย 4-bit Q4_K_S จาก Hugging Face
- เริ่มเซิร์ฟเวอร์การอนุมานในท้องถิ่น: sh llama-server -m "path/to/model.gguf"
- เข้าถึงที่ http://localhost:8080 ผ่านเบราว์เซอร์ เพื่อสัมผัสประสบการณ์การสนทนา AI แบบท้องถิ่นอย่างเต็มที่
ความปลอดภัยและการควบคุมความเสี่ยง
OpenAI ได้ทำการประเมินความเสี่ยงด้านความปลอดภัยของโมเดล gpt-oss ผลการประเมินแสดงให้เห็นว่า โมเดลในชุดนี้มีความเสี่ยงหลังจากการปรับแต่งที่ไม่พึงประสงค์ต่ำกว่ารุ่นปิดของตนเอง ขณะเดียวกันเวอร์ชันเปิดไม่มีกระบวนการตรวจสอบที่ชัดเจน ทำให้มีพื้นที่ในการวิจัยเปิดกว้างขึ้น แต่สำหรับนักพัฒนามีการเตือนตรง ๆ เกี่ยวกับวิธีการแสดง “กระบวนการคิด” ของโมเดล: เนื้อหา CoT ถูกจำกัดให้ใช้งานเพียงเพื่อการพัฒนาและทดสอบเท่านั้น ไม่ควรเผยแพร่โดยตรงต่อผู้ใช้สุดท้ายเพื่อหลีกเลี่ยงการสร้างข้อมูลที่ไม่เหมาะสมหรือข้อมูลที่ผิด
ใครคือกลุ่มที่เหมาะสมในการใช้ GPT-OSS?
- นักพัฒนาและนักวิจัย: gpt-oss-20b มีความคุ้มค่าสูง การทดลองในเดสก์ทอปไม่มีปัญหา
- บริษัทหรือองค์กร: gpt-oss-120b เหมาะสำหรับการพัฒนาแบบกำหนดเอง, เปิดตัวผลิตภัณฑ์ และการควบคุมข้อมูล
- ผู้ที่ให้ความสำคัญกับความเป็นส่วนตัวและการใช้งานในท้องถิ่น: ทุกอย่างทำในท้องถิ่น ไม่ต้องพึ่งพา API ภายนอก ลดความกังวลเรื่องความเป็นส่วนตัวและค่าใช้จ่าย
ความหมายในอุตสาหกรรม
การ “เปิดเผย” อย่างแท้จริงของ OpenAI ในครั้งนี้ ไม่ได้เป็นเพียงการให้เครื่องมือใหม่แก่ผู้พัฒนา แต่เป็นการเปลี่ยนแปลงกลยุทธ์ทางธุรกิจและเส้นทางทางเทคโนโลยี โลกดิจิทัลก้าวหน้าอย่างรวดเร็ว ตลาดโอเพนซอร์สกำลังกลายเป็นสนามแข่งขันใหม่ที่ผู้ผลิตโมเดลต้องแย่งชิงนักพัฒนา, ผู้ใช้ธุรกิจ, และพลังของระบบนิเวศ ในอดีตนักพัฒนาสามารถใช้โมเดลผ่าน API ของ OpenAI ทางไกลได้เท่านั้น โดยข้อมูลทั้งหมดถูกส่งผ่านเซิร์ฟเวอร์ OpenAI แต่ตอนนี้ น้ำหนักโมเดลได้ถูกเปิดเผย สามารถควบคุมได้เต็มที่ในท้องถิ่น ทำให้กระบวนการพัฒนามีอำนาจในการควบคุมใหม่อีกครั้ง
การเปิดซอร์สช่วยลดอุปสรรคในการเข้าถึง AI และการผนวก AI สำหรับบริษัทสตาร์ตอัพ และอุตสาหกรรมที่มีทรัพยากรจำกัด รวมถึงผลักดันนวัตกรรมทางเทคโนโลยีในอุตสาหกรรม สร้างระบบนิเวศการใช้งานที่หลากหลายยิ่งขึ้น นี่เป็นการกระตุ้นความก้าวหน้าในการเปิดซอร์สของผู้ผลิต AI ในจีน — ในอนาคต การแพร่หลายของ AI ทั่วโลกไม่ได้พึ่งพากลุ่มผู้ผลิตที่ปิดซอร์สเป็นหลัก แต่ขึ้นอยู่กับความร่วมมือและนวัตกรรมของสังคมในส่วนรวม
ทรัพยากรและการอ่านเพิ่มเติม
ตอนนี้คุณสามารถสัมผัสเสรีภาพและพลังของโมเดล AI ระดับสูงบนคอมพิวเตอร์หรือเซิร์ฟเวอร์ของคุณได้แล้ว ไม่ว่าคุณจะต้องการทำการพัฒนา AI, วิเคราะห์ข้อมูล, หรือเพิ่มพลัง AI ที่ล้ำสมัยให้กับผลิตภัณฑ์ GPT-OSS ก็มีความคุ้มค่าที่จะทดลอง อย่ารอ “GPT-5” อีกต่อไป ลงมือทำและสัมผัส AI ที่เป็นของคุณจริงๆ!
ค้นหาข้อมูลเกี่ยวกับโมเดล AI ล่าสุดได้ที่ YooAI ไม่มีการสมัครสมาชิกต่อเนื่อง ใช้งานได้ฟรี!