3 bí mật giúp Big Tech đào tạo AI thôi nói bừa, lột xác thành chuyên gia, tất cả bắt đầu từ vụ rò rỉ chấn động giới công nghệ

Một tài liệu mật vừa bị phát tán đã phơi bày "quy trình ngầm" của các ông lớn công nghệ.

Theo một báo cáo chuyên sâu gần đây từ The Wall Street Journal, một bước ngoặt thú vị đã xảy ra trên lộ trình tiến tới siêu trí tuệ.

Các kỹ sư đã âm thầm biến AI từ những cỗ máy dự đoán xác suất hay "ảo giác" thành những trợ lý đắc lực hỗ trợ con người giải quyết công việc thực tế.

Những manh mối về cách họ đạt được điều này vừa lộ diện qua một vụ rò rỉ phần mềm chấn động liên quan đến mã nguồn "Claude Code".

Mã nguồn rò rỉ từ Anthropic không chỉ là lệnh, mà là một "triết lý vận hành" mới, cho thấy cách các ông lớn đang thuần hóa sự ngẫu hứng của AI.

Phân tích từ vụ rò rỉ cho thấy các tập đoàn như Google, OpenAI và Anthropic đang áp dụng những chiến lược bao quanh để kiểm soát và bổ trợ cho mô hình.

Cuộc cách mạng về dữ liệu tinh tuyển và khả năng tự tra cứu

Thời kỳ đầu, các mô hình ngôn ngữ lớn (LLM) học từ "mớ hỗn độn" internet, bao gồm cả tin giả và những thông tin lỗi thời.

Hệ quả là AI thường xuyên đưa ra câu trả lời thiếu xác thực, đầy định kiến hoặc mắc phải hiện tượng "ảo giác" nghiêm trọng.

Hiện nay, một ngành công nghiệp tỷ đô đã hình thành để giải quyết "đầu vào" bằng cách thuê hàng nghìn chuyên gia trình độ cao dạy kèm cho AI.

Bác sĩ, luật sư, kỹ sư đang trực tiếp biên soạn các bộ câu hỏi và đáp án mẫu chuẩn xác để AI học tập một cách bài bản.

Quá trình này được gọi là RLHF (Học tăng cường từ phản hồi người) chuyên sâu, nơi chuyên gia sửa lỗi và giải thích lý do cho AI.

AI học cách chắt lọc tri thức từ những bộ não hàng đầu thay vì thu lượm kiến thức rời rạc từ các diễn đàn tự do trên mạng.

Bên cạnh kiến thức nội tại, AI giờ đã có khả năng "nhìn ra thế giới bên ngoài" thông qua việc tích hợp các công cụ tra cứu thời gian thực.

Thay vì dựa vào bộ nhớ tĩnh, khi được hỏi về sự kiện mới, AI sẽ tự động truy vấn các nguồn uy tín như Google Search để cập nhật.

Theo OpenAI, cơ chế này giúp mô hình GPT-4o giảm tới 26% tỷ lệ lỗi thực tế so với các phiên bản tiền nhiệm trước đó.

Các kỹ sư cũng tập trung vào khái niệm "hiệu chuẩn" (calibration), giúp AI tự đánh giá độ tự tin trong câu trả lời của chính mình.

Nếu thông tin tra cứu không đủ tin cậy, AI sẽ được dạy để thẳng thắn nói: "Tôi không biết chắc" thay vì cố tình đưa ra thông tin sai.

Sự trung thực này là yếu tố quan trọng nhất để xây dựng niềm tin, biến AI từ kẻ "nói bừa" thành một trợ lý cẩn trọng và đáng tin cậy.

Sự kết hợp hoàn hảo giữa tư duy AI và công cụ logic

Một trong những điểm yếu lớn nhất của AI là khả năng tính toán toán học do bản chất dự đoán xác suất thay vì tuân theo logic cứng.

Việc hỏi AI phép tính phức tạp trước đây chẳng khác nào tung xúc xắc may rủi, nhưng hiện nay các nhà phát triển đã trang bị "vũ khí" mới.

AI đã có khả năng "sử dụng công cụ": thay vì tự nhẩm, chúng sẽ nhận diện yêu cầu và viết mã Python để tính toán chính xác.

Mã này sau đó được thực thi trên môi trường máy tính truyền thống để cho ra đáp số chuẩn xác đến từng con số.

Điều này tạo ra sự cộng hưởng: AI đóng vai trò là "bộ não" điều phối, còn phần mềm truyền thống đóng vai trò thực thi chuẩn xác.

Sự chính xác tuyệt đối của máy tính đã lấp đầy hoàn hảo lỗ hổng của tư duy xác suất vốn có trong các mô hình ngôn ngữ lớn.

Vụ rò rỉ Claude Code cũng hé lộ hệ thống quản lý ngữ cảnh tinh vi giúp AI không bị quá tải thông tin khi cuộc hội thoại kéo dài.

Việc quá tải dữ liệu là nguyên nhân chính gây ra ảo giác, vì vậy hệ thống mới sẽ tự động tóm tắt và lọc nhiễu để giữ sự tập trung.

Thậm chí, các kỹ sư còn thiết lập rào chắn bằng lập trình kiểu cũ để can thiệp nếu người dùng tỏ ra tức giận hoặc khó chịu.

Nó đảm bảo AI luôn giữ đúng mực, phản ứng chuyên nghiệp và không bị cuốn theo những tương tác tiêu cực từ phía người dùng.

Chuyên gia Gary Marcus nhận định việc ghép nối LLM với thế giới toán học cứng nhắc là chìa khóa để giải quyết mọi công việc chuyên môn.

AI giờ đây không chỉ biết nói năng trôi chảy, chúng đã thực sự biết sử dụng các công cụ mà con người đã tạo ra suốt hàng nghìn năm.

Kỹ thuật tư duy chuỗi

Một thay đổi mang tính cách mạng khác là kỹ thuật "chuỗi tư duy" (Chain of Thought), giúp AI không còn đưa ra phản hồi một cách hấp tấp.

Thay vì trả lời ngay, AI sẽ chia nhỏ vấn đề thành các bước logic và giải quyết từng phần một cách tuần tự trước mắt người dùng.

Quá trình này giúp AI tự kiểm tra được lỗ hổng trong lập luận của chính mình ngay trong lúc đang tiến hành suy luận vấn đề.

Nếu bước đầu sai, AI có cơ hội nhận ra và điều chỉnh ngay lập tức thay vì đi thẳng đến một đáp số lỗi ở cuối chuỗi.

Tiến xa hơn, các doanh nghiệp đang áp dụng mô hình "Council of Models" (Hội đồng thẩm định) để tối ưu hóa độ chính xác.

Thay vì tin một AI duy nhất, họ sử dụng nhiều mô hình từ các hãng khác nhau để cùng thẩm định một vấn đề quan trọng.

Ví dụ, một câu trả lời từ ChatGPT sẽ được kiểm tra chéo bởi mô hình Claude trước khi được gửi đến cho người dùng cuối.

Cơ chế "kiểm soát và cân bằng" này làm giảm đáng kể các sai sót ngẫu nhiên và nâng cao uy tín cho các dịch vụ AI doanh nghiệp.

Pavel Kirillov cho biết kết quả từ "hội đồng" luôn có chất lượng cao hơn hẳn và đáp ứng được các tiêu chuẩn khắt khe nhất của khách hàng.

Sự hỗ trợ lẫn nhau giữa các mô hình đang tạo ra mạng lưới an toàn, biến AI trở thành một hệ sinh thái làm việc chuyên nghiệp.

Sau cùng, sự cải tiến của AI không hoàn toàn đến từ việc chúng "thông minh" lên một cách độc lập như bộ não con người.

Nó đến từ việc các nhà sáng tạo đã biết cách quản lý, bù đắp và tận dụng tri thức nghìn năm của nhân loại để rèn giũa chúng.

AI hiện nay tin cậy vì chúng biết tra cứu, dùng công cụ và kiểm tra lẫn nhau, trở thành những cộng sự biết lắng nghe và cẩn trọng.

*Nguồn: The Wall Street Journal