Chuyển tới nội dung chính

5 bài viết được gắn thẻ "Qwen"

Qwen là dòng mô hình ngôn ngữ lớn của Alibaba Cloud, nổi bật với hiệu suất cao và chi phí thấp, được phân phối qua DashScope API.

Xem tất cả thẻ

AI Trung Quốc miễn phí 100%: Chiến lược "vũ khí hóa" sự hào phóng?

· 9 phút để đọc
ManhPT
Just another developer!

Khi ChatGPT Plus lên $200/tháng, DeepSeek và Qwen vẫn không có nút trả tiền. Mở kho ứng dụng, bạn thấy ChatGPT với nút Nâng cấp lên Plus ngay màn hình chính. Claude tương tự: $20/tháng cho gói Pro. Google Gemini Advanced: $19.99/tháng.

Còn DeepSeek và Qwen? Không có nút nào hết. Không thuê bao, không tường phí, không gói cao cấp. Mọi tính năng đều miễn phí, kể cả model mới nhất.

Câu hỏi hiển nhiên: tiền đâu mà họ tồn tại? Và quan trọng hơn: đây có phải là một nước cờ địa chính trị được tính toán kỹ lưỡng?

Gemini Hết Thời 'Ngon Bổ Rẻ': Trung Quốc Đang Thắng Cuộc Đua AI Mở Và Cuộc Cạnh Tranh Ngầm Giữa Các Quốc Gia

· 20 phút để đọc
ManhPT
Just another developer!

Tóm tắt — Tháng 4/2026 đánh dấu một bước ngoặt lớn trong làng AI. Google chính thức khai tử gói miễn phí Gemini Pro, siết chặt hạn ngạch Flash, và áp trần chi tiêu bắt buộc — chấm dứt kỷ nguyên "ngon bổ rẻ" từng khiến Gemini trở thành lựa chọn số một cho lập trình viên. Cùng lúc đó, chỉ 23 ngày sau, DeepSeek tung ra V4 với open-weight, giấy phép MIT, benchmark sát Opus 4.7, giá chỉ bằng 1/6. Bài viết này phân tích vì sao đây không chỉ là câu chuyện về giá cả — mà là một cuộc chiến địa chính trị ngầm, nơi mã nguồn mở được dùng như vũ khí chiến lược, và Trung Quốc đang dần chiếm ưu thế.

Benchmark No Streaming + No Thinking: JSON vs QP-Lines (Gemini + Qwen)

· 8 phút để đọc
ManhPT
Just another developer!

Bài benchmark trước dùng JSON array cho structured output nhưng chưa đo tác động của format lên TTLT. Bài này tách riêng một điều kiện chuẩn hóa — no streaming + no thinking + explicit cache — rồi so sánh JSON array vs QP-Lines trên cả GeminiQwen để trả lời câu hỏi: format nào nhanh hơn và ổn định hơn cho pipeline query breaking?

Tham chiếu bài trước: Implicit Cache vs Explicit Cache: Qwen3.5-Flash và Gemini-3.1-Flash-Lite-Preview — Đo Thực Tế TTLT.

Context Cache trong LLM: Prefix Cache vs KV Cache, Implicit vs Explicit - Phân Tích Claude, Gemini, GPT, Qwen3.5

· 9 phút để đọc
ManhPT
Just another developer!

Context cache (còn gọi là prefix cache hoặc KV cache) là kỹ thuật tối ưu quan trọng trong các LLM API hiện đại, giúp giảm latency và cost khi xử lý các request có phần context lặp lại. Bài viết này phân tích sâu kiến trúc cache của 4 model LLM hàng đầu (Claude, Gemini, GPT, Qwen3.5), so sánh implicit vs explicit cache, và đặc biệt tập trung vào trade-off giữa TTFT (Time-To-First-Token)TTLT (Time-To-Last-Token) - vấn đề then chốt trong optimization thực tế.

Implicit Cache vs Explicit Cache: Qwen3.5-Flash và Gemini-3.1-Flash-Lite-Preview — Đo Thực Tế TTLT

· 12 phút để đọc
ManhPT
Just another developer!

Trong pipeline RAG, bước "query breaking" — phân tách câu hỏi phức hợp thành các sub-query độc lập — là bottleneck đầu tiên trước khi có thể fan-out sang vector database. Metric quan trọng nhất không phải TTFT (first token) mà là TTLT (time-to-last-token): pipeline chỉ có thể gọi json.loads() và bắt đầu retrieval khi nhận đủ toàn bộ JSON array. Bài viết này là báo cáo benchmark thực tế, chạy script đo TTLT và TTFT cho Qwen3.5-FlashGemini-3.1-Flash-Lite-Preview với 3 kịch bản caching.