Chuyển tới nội dung chính

4 bài viết được gắn thẻ "Cache"

Cache trong AI là kỹ thuật lưu trữ tạm thời các prefix token để giảm chi phí và độ trễ khi gửi prompt lặp lại đến LLM API.

Xem tất cả thẻ

Cảm Giác Dùng DeepSeek V4 Với OpenClaw: Rẻ Đến Mức Thấy… Có Lỗi

· 9 phút để đọc
ManhPT
Just another developer!

Tóm tắt — Tôi đã chuyển OpenClaw sang dùng DeepSeek V4 được vài ngày. Cảm giác đầu tiên: "hình như billing bị lỗi". Kiểm tra kỹ thì hóa ra không — DeepSeek thực sự rẻ đến mức đó. Bài viết này chia sẻ trải nghiệm thực tế, phân tích bảng giá chính thức (cập nhật 29/4/2026), cơ chế disk cache tự động giúp giảm thêm 80-90% chi phí input, và so sánh cụ thể với GPT-5.5 lẫn Claude Opus.

Benchmark No Streaming + No Thinking: JSON vs QP-Lines (Gemini + Qwen)

· 8 phút để đọc
ManhPT
Just another developer!

Bài benchmark trước dùng JSON array cho structured output nhưng chưa đo tác động của format lên TTLT. Bài này tách riêng một điều kiện chuẩn hóa — no streaming + no thinking + explicit cache — rồi so sánh JSON array vs QP-Lines trên cả GeminiQwen để trả lời câu hỏi: format nào nhanh hơn và ổn định hơn cho pipeline query breaking?

Tham chiếu bài trước: Implicit Cache vs Explicit Cache: Qwen3.5-Flash và Gemini-3.1-Flash-Lite-Preview — Đo Thực Tế TTLT.

Context Cache trong LLM: Prefix Cache vs KV Cache, Implicit vs Explicit - Phân Tích Claude, Gemini, GPT, Qwen3.5

· 9 phút để đọc
ManhPT
Just another developer!

Context cache (còn gọi là prefix cache hoặc KV cache) là kỹ thuật tối ưu quan trọng trong các LLM API hiện đại, giúp giảm latency và cost khi xử lý các request có phần context lặp lại. Bài viết này phân tích sâu kiến trúc cache của 4 model LLM hàng đầu (Claude, Gemini, GPT, Qwen3.5), so sánh implicit vs explicit cache, và đặc biệt tập trung vào trade-off giữa TTFT (Time-To-First-Token)TTLT (Time-To-Last-Token) - vấn đề then chốt trong optimization thực tế.

Implicit Cache vs Explicit Cache: Qwen3.5-Flash và Gemini-3.1-Flash-Lite-Preview — Đo Thực Tế TTLT

· 12 phút để đọc
ManhPT
Just another developer!

Trong pipeline RAG, bước "query breaking" — phân tách câu hỏi phức hợp thành các sub-query độc lập — là bottleneck đầu tiên trước khi có thể fan-out sang vector database. Metric quan trọng nhất không phải TTFT (first token) mà là TTLT (time-to-last-token): pipeline chỉ có thể gọi json.loads() và bắt đầu retrieval khi nhận đủ toàn bộ JSON array. Bài viết này là báo cáo benchmark thực tế, chạy script đo TTLT và TTFT cho Qwen3.5-FlashGemini-3.1-Flash-Lite-Preview với 3 kịch bản caching.