Chuyển tới nội dung chính

2 bài viết được gắn thẻ "Claude"

Claude là một trợ lý AI thế hệ tiếp theo được xây dựng bởi Anthropic và được huấn luyện để an toàn, chính xác và bảo mật nhằm giúp bạn làm việc tốt nhất.

Xem tất cả thẻ

Context Cache trong LLM: Prefix Cache vs KV Cache, Implicit vs Explicit - Phân Tích Claude, Gemini, GPT, Qwen3.5

· 9 phút để đọc
ManhPT
Just another developer!

Context cache (còn gọi là prefix cache hoặc KV cache) là kỹ thuật tối ưu quan trọng trong các LLM API hiện đại, giúp giảm latency và cost khi xử lý các request có phần context lặp lại. Bài viết này phân tích sâu kiến trúc cache của 4 model LLM hàng đầu (Claude, Gemini, GPT, Qwen3.5), so sánh implicit vs explicit cache, và đặc biệt tập trung vào trade-off giữa TTFT (Time-To-First-Token)TTLT (Time-To-Last-Token) - vấn đề then chốt trong optimization thực tế.

Model Context Protocol (MCP) là gì?

· 3 phút để đọc
ManhPT
Just another developer!

MCP Architecture

Tóm tắt khái niệm về MCP theo bài viết từ Anthropic

Model Context Protocol (MCP) là một giao thức chuẩn mở được Anthropic giới thiệu vào ngày 26/11/2024, nhằm mục đích kết nối các mô hình ngôn ngữ lớn (LLM) với dữ liệu và công cụ bên ngoài một cách liền mạch. Dưới đây là khái niệm cốt lõi của MCP dựa trên bài viết: