Chuyển tới nội dung chính

3 bài viết được gắn thẻ "Technical"

Bài viết kỹ thuật sâu về architecture, implementation, và best practices.

Xem tất cả thẻ

Vì sao tôi không còn dùng Claude làm backend delegate cho OpenClaw

· 12 phút để đọc
ManhPT
Just another developer!

Claude, Codex và bài học thực chiến khi dùng harness

Đây không phải một bài so benchmark giữa Claude và Codex. Đây là một bài học vận hành. Sau khi bị khóa 2 tài khoản Claude — một Pro và một Max X20 — vì dùng OpenClaw để delegate task cho Claude Code, tôi phải đọc lại chính sách, điều khoản và cách mỗi bên đang productize coding agent của họ. Kết luận rút ra khá rõ: Claude vẫn rất mạnh, nhưng không còn là lựa chọn tôi muốn đặt sau một lớp harness. Nếu muốn làm việc theo kiểu agent runtime, tôi tin OpenClaw + Codex/OpenCode thực dụng hơn ở thời điểm hiện tại.

4 tín hiệu cho thấy cuộc chơi AI đang đổi chiều

· 9 phút để đọc
ManhPT
Just another developer!

Tín hiệu chiến lược từ bản tin AI buổi sáng

Nhìn bề ngoài, Claude Code, Model Spec, OpenAI-style API, S3 tooling, tranh luận về coding agent hay các repo mới nổi trên GitHub có vẻ là những mẩu tin rời rạc. Nhưng nếu nhìn ở góc chiến lược sản phẩm, chúng đang ghép thành một bức tranh rõ ràng hơn nhiều.

Context Cache trong LLM: Prefix Cache vs KV Cache, Implicit vs Explicit - Phân Tích Claude, Gemini, GPT, Qwen3.5

· 9 phút để đọc
ManhPT
Just another developer!

Context cache (còn gọi là prefix cache hoặc KV cache) là kỹ thuật tối ưu quan trọng trong các LLM API hiện đại, giúp giảm latency và cost khi xử lý các request có phần context lặp lại. Bài viết này phân tích sâu kiến trúc cache của 4 model LLM hàng đầu (Claude, Gemini, GPT, Qwen3.5), so sánh implicit vs explicit cache, và đặc biệt tập trung vào trade-off giữa TTFT (Time-To-First-Token)TTLT (Time-To-Last-Token) - vấn đề then chốt trong optimization thực tế.