ลองใช้งาน GLM Coding ร่วมกับ Claude Code

PublishedAt

LLM

Learn in Public

ลองใช้งาน GLM Coding ร่วมกับ Claude Code

สวัสดีครับ วันนี้ได้ลองใช้งานตัว GLM Coding 4.6 ที่เห็นหลายๆคนแชร์กันมา และเป็นโอกาสดีที่ผมจะหาอะไรมาแทนที่ Claude Code ยอมรับว่าช่วงแรกๆ ติด AI หนักมาก ทุกงาน ต้อง prompt ก่อน แต่หลังๆ เริ่มรู้สึกว่างานมันไวจริง แต่ข้อผิดพลาด เริ่มเยอะ และหลังๆ รู้สึกกลับมาเขียนเอง หลายงานไวกว่า แต่บางงานก็ต้องใช้ เช่น ขึ้น project/idea ง่ายๆ, generate, transform หรือพวก pattern ซ้ำๆ AI ทำได้ดีกว่าอยู่แล้ว

ตอนนี้ผมใช้ AI น้อยลงมากๆ ตอนแรกใช้ Pro $100 ตอนนี้เหลือ $20 และพอมาเจอ GLM Coding $3 ต่อเดือน รู้สึกว่า น่าสนใจ เพราะประหยัดเงินไปได้เยอะเลย ก็เลยลองสมัคร และเอามาใช้แทน Claude Code ดู

ตัว GLM ของค่าย z.ai ก็เหมือนกับเจ้าอื่นๆ เราสามารถ chat ได้ปกติ

และก็ใช้งานผ่าน API ซึ่ง API Key ไปสร้างได้เลย รวมอยู่ใน subscription plan แล้ว ไม่ต้องไปเสียเงินจ่ายแยก แบบหลายๆเจ้า https://z.ai/manage-apikey/apikey-list

GLM Coding Plan คิดราคา ลด 50% (เดือนแรก) สมมติสมัคร รายเดือน ก็ลด 50% เดือนแรก แต่ถ้าสมัครราย 3 เดือน ก็ลด 50% 3 เดือนแรก หรือสมัครรายปี ก็ลดไปปีแรก 50% ปีต่อไปปกติ เป็นต้น

มี 3 ราคา คือ (ราคาแบบลด 50%)

  1. GLM Coding Lite ราคา $3 ต่อเดือน ใช้งานได้ 120 prompts ทุกๆ 5 ชั่วโมง
  2. GLM Coding Pro ราคา $15 ต่อเดือน ใช้งานได้ 600 prompts ทุกๆ 5 ชั่วโมง
  3. GLM Coding Max ราคา $30 ต่อเดือน ใช้งานได้ 2400 prompts ทุกๆ 5 ชั่วโมง

ซึ่ง ถ้าเปรียบเทียบดู ตัว Lite ใช้งานได้เยอะกว่า Claude Code Pro ในขณะที่ GLM Pro ใช้งานได้มากกว่า Claude Max ซะอีก

ตัว GLM ใช้งานได้กับ Claude Code, Roo Code, Kilo Code, Cline, OpenCode, Crush, Goose อะไรพวกนี้ (ตอนที่ลอง บางตัวก็ยังไม่ได้อัพเดตให้รองรับ)

วิธีการตั้งค่า

วิธีใช้งาน GLM Coding กับ Claude Clode

  1. ไปสร้าง API Key ของ Z ก่อน ที่นี่ https://z.ai/manage-apikey/apikey-list
  2. Copy API Key เก็บไว้
  3. แก้ไขไฟล์ ~/.claude/settings.json เอา API Key ไปใส่ ANTHROPIC_AUTH_TOKEN
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "<YOUR_API_KEY>",
"ANTHROPIC_BASE_URL": "https://api.z.ai/api/anthropic",
"API_TIMEOUT_MS": "3000000"
}
}

ทีนี้เวลาเราสั่ง claude มันก็จะใช้แบบ API ไม่ใช่แบบ login subscription Claude Pro ปกติแล้ว

Terminal window
▐▛███▜▌ Claude Code v2.0.14
▝▜█████▛▘ Sonnet 4.5 · API Usage Billing
▘▘ ▝▝ /Users/your-project

สังเกตเห็นว่า Model ยังเป็น Sonnet 4.5 เนื่องจากว่า Model Claude Code มันจะ mapping GLM model ตามนี้ (ค่า default)

Terminal window
ANTHROPIC_DEFAULT_OPUS_MODEL: GLM-4.6
ANTHROPIC_DEFAULT_SONNET_MODEL: GLM-4.6
ANTHROPIC_DEFAULT_HAIKU_MODEL: GLM-4.5-Air

ลองตรวจสอบว่า เราใช้ GLM Model ใน Claude Code ถูกต้อง ลองสั่ง command /status จะได้ผลลัพธ์ประมาณนี้

Terminal window
Version: 2.0.14
Session ID: 6f8df1ee-xxxxx
cwd: /Users/your-project
Auth token: ANTHROPIC_AUTH_TOKEN
Anthropic base URL: https://api.z.ai/api/anthropic

ผมยังไม่ได้ทดสอบนะครับ ว่ามันใช้ดีกว่า Claude Code Sonnet มากน้อยแค่ไหน แต่ข้อดีคือ ราคาถูกกว่ากันค่อนข้างมาก เมื่อก่อน ผมใช้ Claude Pro $100 ซักพัก ลดเหลือ $20 หลังๆ ก็เริ่มใช้น้อยลงเรื่อยๆ และคิดว่าไม่ได้มีความจำเป็นต้องใช้ AI ขนาดนั้น ก็เลยพยายามมองหาตัวที่ประหยัด ใช้แค่บางงานเท่านั้น เช่น analyze/สรุป เอาไว้เรียนรู้ ขึ้นโปรเจ็คใหม่ๆ ง่ายๆ หรือ convert JSON/CSV แปลง script ง่ายๆ ทำ command ง่ายๆ เป็นต้น ส่วนงานซับซ้อน หลังๆ ผมรู้สึกทำเองไวกว่า หลายๆครั้งข้อมูลก็ไม่ถูกต้อง และเบื่อกับการสั่ง AI ผมว่าเอาเวลานั่งเขียน prompt ละเอียดๆ มาทำเอง ในบางงาน เสร็จเร็วกว่าอีก

หากเพื่อนๆ สนใจ ลองไปสมัครใช้ดูได้นะครับ หรือ กดผ่าน link affiliate ผมได้นะครับ 🙏

ทดลองสมัครใช้งาน เดือนละ $3 (link affiliate)

Happy Coding ❤️

Authors
avatar

Chai Phonbopit

เป็น Web Dev ในบริษัทแห่งหนึ่ง ทำงานมา 10 ปีกว่าๆ ด้วยภาษาและเทคโนโลยี เช่น JavaScript, Node.js, React, Vue และปัจจุบันกำลังสนใจในเรื่องของ Blockchain และ Crypto กำลังหัดเรียนภาษา Rust