ลองใช้งาน GLM Coding ร่วมกับ Claude Code

สวัสดีครับ วันนี้ได้ลองใช้งานตัว GLM Coding 4.6 ที่เห็นหลายๆคนแชร์กันมา และเป็นโอกาสดีที่ผมจะหาอะไรมาแทนที่ Claude Code ยอมรับว่าช่วงแรกๆ ติด AI หนักมาก ทุกงาน ต้อง prompt ก่อน แต่หลังๆ เริ่มรู้สึกว่างานมันไวจริง แต่ข้อผิดพลาด เริ่มเยอะ และหลังๆ รู้สึกกลับมาเขียนเอง หลายงานไวกว่า แต่บางงานก็ต้องใช้ เช่น ขึ้น project/idea ง่ายๆ, generate, transform หรือพวก pattern ซ้ำๆ AI ทำได้ดีกว่าอยู่แล้ว
ตอนนี้ผมใช้ AI น้อยลงมากๆ ตอนแรกใช้ Pro $100 ตอนนี้เหลือ $20 และพอมาเจอ GLM Coding $3 ต่อเดือน รู้สึกว่า น่าสนใจ เพราะประหยัดเงินไปได้เยอะเลย ก็เลยลองสมัคร และเอามาใช้แทน Claude Code ดู
ตัว GLM ของค่าย z.ai ก็เหมือนกับเจ้าอื่นๆ เราสามารถ chat ได้ปกติ
และก็ใช้งานผ่าน API ซึ่ง API Key ไปสร้างได้เลย รวมอยู่ใน subscription plan แล้ว ไม่ต้องไปเสียเงินจ่ายแยก แบบหลายๆเจ้า https://z.ai/manage-apikey/apikey-list
GLM Coding Plan คิดราคา ลด 50% (เดือนแรก) สมมติสมัคร รายเดือน ก็ลด 50% เดือนแรก แต่ถ้าสมัครราย 3 เดือน ก็ลด 50% 3 เดือนแรก หรือสมัครรายปี ก็ลดไปปีแรก 50% ปีต่อไปปกติ เป็นต้น
มี 3 ราคา คือ (ราคาแบบลด 50%)
- GLM Coding Lite ราคา $3 ต่อเดือน ใช้งานได้ 120 prompts ทุกๆ 5 ชั่วโมง
- GLM Coding Pro ราคา $15 ต่อเดือน ใช้งานได้ 600 prompts ทุกๆ 5 ชั่วโมง
- GLM Coding Max ราคา $30 ต่อเดือน ใช้งานได้ 2400 prompts ทุกๆ 5 ชั่วโมง
ซึ่ง ถ้าเปรียบเทียบดู ตัว Lite ใช้งานได้เยอะกว่า Claude Code Pro ในขณะที่ GLM Pro ใช้งานได้มากกว่า Claude Max ซะอีก
ตัว GLM ใช้งานได้กับ Claude Code, Roo Code, Kilo Code, Cline, OpenCode, Crush, Goose อะไรพวกนี้ (ตอนที่ลอง บางตัวก็ยังไม่ได้อัพเดตให้รองรับ)
วิธีการตั้งค่า
วิธีใช้งาน GLM Coding กับ Claude Clode
- ไปสร้าง
API Key
ของ Z ก่อน ที่นี่ https://z.ai/manage-apikey/apikey-list - Copy API Key เก็บไว้
- แก้ไขไฟล์
~/.claude/settings.json
เอา API Key ไปใส่ANTHROPIC_AUTH_TOKEN
{ "env": { "ANTHROPIC_AUTH_TOKEN": "<YOUR_API_KEY>", "ANTHROPIC_BASE_URL": "https://api.z.ai/api/anthropic", "API_TIMEOUT_MS": "3000000" }}
ทีนี้เวลาเราสั่ง claude
มันก็จะใช้แบบ API ไม่ใช่แบบ login subscription Claude Pro ปกติแล้ว
▐▛███▜▌ Claude Code v2.0.14▝▜█████▛▘ Sonnet 4.5 · API Usage Billing ▘▘ ▝▝ /Users/your-project
สังเกตเห็นว่า Model ยังเป็น Sonnet 4.5 เนื่องจากว่า Model Claude Code มันจะ mapping GLM model ตามนี้ (ค่า default)
ANTHROPIC_DEFAULT_OPUS_MODEL: GLM-4.6ANTHROPIC_DEFAULT_SONNET_MODEL: GLM-4.6ANTHROPIC_DEFAULT_HAIKU_MODEL: GLM-4.5-Air
ลองตรวจสอบว่า เราใช้ GLM Model ใน Claude Code ถูกต้อง ลองสั่ง command /status
จะได้ผลลัพธ์ประมาณนี้
Version: 2.0.14Session ID: 6f8df1ee-xxxxxcwd: /Users/your-projectAuth token: ANTHROPIC_AUTH_TOKENAnthropic base URL: https://api.z.ai/api/anthropic
ผมยังไม่ได้ทดสอบนะครับ ว่ามันใช้ดีกว่า Claude Code Sonnet มากน้อยแค่ไหน แต่ข้อดีคือ ราคาถูกกว่ากันค่อนข้างมาก เมื่อก่อน ผมใช้ Claude Pro $100 ซักพัก ลดเหลือ $20 หลังๆ ก็เริ่มใช้น้อยลงเรื่อยๆ และคิดว่าไม่ได้มีความจำเป็นต้องใช้ AI ขนาดนั้น ก็เลยพยายามมองหาตัวที่ประหยัด ใช้แค่บางงานเท่านั้น เช่น analyze/สรุป เอาไว้เรียนรู้ ขึ้นโปรเจ็คใหม่ๆ ง่ายๆ หรือ convert JSON/CSV แปลง script ง่ายๆ ทำ command ง่ายๆ เป็นต้น ส่วนงานซับซ้อน หลังๆ ผมรู้สึกทำเองไวกว่า หลายๆครั้งข้อมูลก็ไม่ถูกต้อง และเบื่อกับการสั่ง AI ผมว่าเอาเวลานั่งเขียน prompt ละเอียดๆ มาทำเอง ในบางงาน เสร็จเร็วกว่าอีก
หากเพื่อนๆ สนใจ ลองไปสมัครใช้ดูได้นะครับ หรือ กดผ่าน link affiliate ผมได้นะครับ 🙏
ทดลองสมัครใช้งาน เดือนละ $3 (link affiliate)
Happy Coding ❤️
- Authors
-
Chai Phonbopit
เป็น Web Dev ในบริษัทแห่งหนึ่ง ทำงานมา 10 ปีกว่าๆ ด้วยภาษาและเทคโนโลยี เช่น JavaScript, Node.js, React, Vue และปัจจุบันกำลังสนใจในเรื่องของ Blockchain และ Crypto กำลังหัดเรียนภาษา Rust