Chuyển tới nội dung chính

Agentic Retrieval-Augmented Generation: A Survey on Agentic RAG

· 5 phút để đọc
ManhPT
Just another developer!

Agentic Retrieval-Augmented Generation: A Survey on Agentic RAG là một paper survey khá đầy đủ cho ai đang chuyển từ RAG tuyến tính sang các hệ RAG có tính tự chủ cao hơn (agentic). Bài này không giới thiệu một mô hình mới, mà hệ thống hóa lại bức tranh tổng quan: kiến trúc, workflow pattern, framework triển khai, benchmark và những thách thức còn mở.

Benchmark No Streaming + No Thinking: JSON vs QP-Lines (Gemini + Qwen)

· 8 phút để đọc
ManhPT
Just another developer!

Bài benchmark trước dùng JSON array cho structured output nhưng chưa đo tác động của format lên TTLT. Bài này tách riêng một điều kiện chuẩn hóa — no streaming + no thinking + explicit cache — rồi so sánh JSON array vs QP-Lines trên cả GeminiQwen để trả lời câu hỏi: format nào nhanh hơn và ổn định hơn cho pipeline query breaking?

Tham chiếu bài trước: Implicit Cache vs Explicit Cache: Qwen3.5-Flash và Gemini-3.1-Flash-Lite-Preview — Đo Thực Tế TTLT.

Context Cache trong LLM: Prefix Cache vs KV Cache, Implicit vs Explicit - Phân Tích Claude, Gemini, GPT, Qwen3.5

· 9 phút để đọc
ManhPT
Just another developer!

Context cache (còn gọi là prefix cache hoặc KV cache) là kỹ thuật tối ưu quan trọng trong các LLM API hiện đại, giúp giảm latency và cost khi xử lý các request có phần context lặp lại. Bài viết này phân tích sâu kiến trúc cache của 4 model LLM hàng đầu (Claude, Gemini, GPT, Qwen3.5), so sánh implicit vs explicit cache, và đặc biệt tập trung vào trade-off giữa TTFT (Time-To-First-Token)TTLT (Time-To-Last-Token) - vấn đề then chốt trong optimization thực tế.

Implicit Cache vs Explicit Cache: Qwen3.5-Flash và Gemini-3.1-Flash-Lite-Preview — Đo Thực Tế TTLT

· 12 phút để đọc
ManhPT
Just another developer!

Trong pipeline RAG, bước "query breaking" — phân tách câu hỏi phức hợp thành các sub-query độc lập — là bottleneck đầu tiên trước khi có thể fan-out sang vector database. Metric quan trọng nhất không phải TTFT (first token) mà là TTLT (time-to-last-token): pipeline chỉ có thể gọi json.loads() và bắt đầu retrieval khi nhận đủ toàn bộ JSON array. Bài viết này là báo cáo benchmark thực tế, chạy script đo TTLT và TTFT cho Qwen3.5-FlashGemini-3.1-Flash-Lite-Preview với 3 kịch bản caching.

OpenClaw + Claude Code: Kiến Trúc Hybrid AI Cá Nhân Tối Ưu Chi Phí

· 12 phút để đọc
ManhPT
Just another developer!

Bài toán chi phí AI cá nhân: Làm thế nào để có trợ lý AI mạnh mẽ mà không tốn hàng trăm đô mỗi tháng? Giải pháp: Kết hợp OpenClaw (orchestrator chạy DeepSeek giá rẻ) với Claude Code (chuyên gia kỹ thuật flat rate $20/tháng).

AI Agent Cá Nhân Hóa - Bước Tiến Tới Tương Lai Nơi Mỗi Người Có Một "Trợ Lý Số" Riêng

· 7 phút để đọc
ManhPT
Just another developer!

AI Agent Cá Nhân Hóa

AI Agent Cá Nhân Hóa - Bước Tiến Tới Tương Lai Nơi Mỗi Người Có Một "Trợ Lý Số" Riêng

Trong kỷ nguyên số hóa, trí tuệ nhân tạo (AI) không còn là khái niệm xa vời mà đã len lỏi vào mọi ngóc ngách của cuộc sống. Từ những chatbot trả lời tự động đến các hệ thống gợi ý phức tạp, AI đang dần thay đổi cách chúng ta làm việc và tương tác. Một trong những xu hướng hấp dẫn và đầy hứa hẹn nhất hiện nay chính là sự trỗi dậy của AI Agent cá nhân hóa – những trợ lý ảo thông minh được thiết kế riêng biệt, hoạt động như một "phiên bản số" thay mặt chúng ta thực hiện các tác vụ.

Model Context Protocol (MCP) là gì?

· 3 phút để đọc
ManhPT
Just another developer!

MCP Architecture

Tóm tắt khái niệm về MCP theo bài viết từ Anthropic

Model Context Protocol (MCP) là một giao thức chuẩn mở được Anthropic giới thiệu vào ngày 26/11/2024, nhằm mục đích kết nối các mô hình ngôn ngữ lớn (LLM) với dữ liệu và công cụ bên ngoài một cách liền mạch. Dưới đây là khái niệm cốt lõi của MCP dựa trên bài viết:

Tương lai của Model Context Protocol (MCP)

· 3 phút để đọc
ManhPT
Just another developer!

MCP

Bài viết trên blog LangChain thảo luận về Model Context Protocol (MCP) – một giao thức đang thu hút sự chú ý trong cộng đồng AI – qua cuộc tranh luận giữa Harrison Chase (CEO LangChain) và Nuno Campos (Trưởng nhóm LangGraph). Nội dung chính xoay quanh việc MCP có thực sự hữu ích hay chỉ là một xu hướng nhất thời.

Thêm tính năng git autocomplete cho powershell trên windows

· 2 phút để đọc
ManhPT
Just another developer!

Post-git là một module Powershell cho phép tích hợp Git với Powershell hỗ trợ git autocomplete. Posh-git có vài tính năng quan trọng như:

  • Cung cấp thông tin cơ bản về repository hiện tại trên dòng lệnh
  • Tự động gợi ý khi gõ lệnh (git autocomplete)

Giao diện Powershell sau khi tích hợp posh-git:

demo-posh-git-on-powershell

Sử dụng oh-my-posh để powershell trở nên hấp dẫn hơn

· 4 phút để đọc
ManhPT
Just another developer!

TL;DR

Bài viết hướng dẫn cách cài đặt Oh-My-Posh vào Powershell.

Là một developer thì chắc hẳn bạn đã sử dụng shell/bash trên linux hay macos. Mà đã sử dụng shell/bash thì chắc cũng sẽ biết đến Oh My Zsh - một công cụ huyền thoại cho những ai yêu dòng lệnh (command line).

Một developer xuất thân MacOS như mình khi chuyển môi trường sang Windows đã luôn cảm thấy CMD hay Powershell rất tù khi phải làm việc chéo cánh với các server Linux. Ngoài ra khi làm việc với git command thì mình cũng bị phụ thuộc vào Git Bash để nhận được gợi ý khi gõ lệnh.

Sau một thời giản dài sống chung với lũ hồi tìm hiểu thì cuối cùng cũng tìm ra được chân ái - Oh My Posh. Oh My Posh giúp powershell trở nên đầy màu sắc đi kèm với những thông tin hữu ích liên quan đến project hiện tại và cả git nữa, quá ngon rồi 😁 mlem mlem...