Trong thời kỳ hậu đại dịch COVID-19, khi các xã hội toàn cầu vừa trải qua một cơn địa chấn về thông tin và công nghệ, một trật tự mới đang hình thành: nơi tốc độ phát triển của trí tuệ nhân tạo (AI) vượt qua khả năng phản ứng của chính sách, pháp luật và nhận thức cộng đồng. Chính trong bối cảnh ấy, nhu cầu về một phương pháp quản trị không chỉ linh hoạt, mà còn đủ sức giữ vững những giá trị nền tảng – công bằng, minh bạch, nhân văn – trở nên cấp thiết hơn bao giờ hết. Đó là lý do khái niệm "quản trị neo trụ giá trị" (anchor governance) được đặt ra.
Khác với kiểu quản lý công nghệ bị động, chạy theo sự cố, quản trị neo trụ giá trị không tìm cách phanh lại công nghệ, mà thiết kế những "mỏ neo thể chế" giúp xã hội không trôi lệch khỏi các trục giá trị cốt lõi. Những mỏ neo ấy không chỉ là luật pháp, mà còn là các chuẩn công nghệ minh bạch, đạo đức số, giám sát xã hội dân sự, giáo dục phản biện và cơ chế tài chính công bằng. Mỗi mỏ neo giữ một phần hệ thống, tạo thành mạng lưới quản trị bền vững – để công nghệ có thể đi xa, nhưng không đi lạc.
Một trong những điểm neo trụ đầu tiên được hình thành chính là khung pháp lý châu Âu sau đại dịch. Digital Services Act (DSA) – công bố cuối năm 2020, và Artificial Intelligence Act (AI Act) – khởi động từ tháng 4/2021, là hai bộ luật nền tảng đầu tiên nhằm kiểm soát quyền lực nền tảng số và hệ thống trí tuệ nhân tạo. DSA đã có hiệu lực đầy đủ từ tháng 2/2024, yêu cầu các nền tảng lớn minh bạch thuật toán, gỡ nội dung độc hại đúng hạn và chịu trách nhiệm với nội dung lan truyền. AI Act – sau hơn hai năm đàm phán gay gắt – được Hội đồng EU thông qua chính thức tháng 5/2024, có hiệu lực từ tháng 8 cùng năm. Đây là lần đầu tiên trong lịch sử loài người, trí tuệ nhân tạo được phân loại rủi ro và đặt dưới một hệ thống luật có hiệu lực toàn châu Âu.
Tuy nhiên, luật chỉ là một phần của mỏ neo. Bên cạnh đó là các chuẩn công nghệ như C2PA 2.0 – công nghệ gắn "dấu vết nguồn gốc" vào nội dung số, giúp người dùng truy xuất xem thông tin do ai tạo, lúc nào, và đã bị chỉnh sửa hay chưa. Trong khi đó, mạng lưới cảnh báo sớm như hệ thống giám sát tin giả (early-warning disinfo grid) tại châu Âu giúp các tổ chức xã hội, báo chí và nền tảng số phát hiện sớm dấu hiệu thao túng thông tin trong kỳ bầu cử hay khủng hoảng.
Ở cấp độ đạo đức, các nguyên tắc như "không gây hại", "ưu tiên con người", "tôn trọng nhân phẩm" đã được UNESCO, OECD và Liên minh châu Âu đưa vào khuyến nghị từ 2019–2021. Một số mô hình còn yêu cầu hệ thống AI phải được cấp phép trước khi vận hành – như đề xuất "Giấy phép Turing" – tương tự như nghề y hay luật. Mỗi mô hình AI vượt một ngưỡng ảnh hưởng nhất định đều phải công khai nguồn dữ liệu, mục tiêu sử dụng, nguy cơ sai lệch và cơ chế con người kiểm soát (human-in-the-loop).
Không thể không nhắc đến khả năng vượt bậc của các mô hình AI hiện đại – như GPT-5, MedPaLM hay Claude – đã đạt được kết quả cao vượt trội trong các kỳ thi chuyên môn, từ y khoa, luật đến quản trị. Nhiều mô hình AI có thể chẩn đoán chính xác hơn bác sĩ trong một số tình huống cụ thể, hoặc đưa ra nhận định pháp lý nhanh hơn luật sư có kinh nghiệm. Chính sự vượt trội đó càng đặt ra câu hỏi về quyền truy cập, kiểm soát và công bằng: nếu quyền năng AI chỉ nằm trong tay một số ít cá nhân hoặc tập đoàn, xã hội sẽ đi về đâu?
Công nghệ không chỉ tác động đến đạo đức hay luật pháp – mà còn tái phân phối quyền lực và lợi ích. Vì vậy, nếu không có các mỏ neo tài chính công bằng, xã hội sẽ dần bị phân hóa. Từ năm 2023, Hàn Quốc đã áp dụng thuế tự động hóa, tạo hơn 280 triệu USD/năm cho quỹ đào tạo lại kỹ năng. Tại California, đề xuất chia cổ tức dữ liệu (data dividend) cho người dân đã được thảo luận như một cách cân bằng lại giữa giá trị cá nhân và siêu lợi nhuận AI. Các quỹ AI đạo đức (AI Ethics Bond) cũng bắt đầu được xây dựng, để khuyến khích đầu tư vào các hệ thống AI đáp ứng tiêu chuẩn ESG – môi trường, xã hội và quản trị.
Tất cả những điểm neo ấy – pháp luật, chuẩn kỹ thuật, đạo đức, truyền thông, giáo dục và kinh tế – tạo nên một mô hình quản trị đa trụ, giữ cho AI không trôi lệch khỏi nhân loại. Nếu không thiết lập từ sớm, chúng ta có thể đối mặt với một thế giới nơi 1% có quyền truy cập vào AI sẽ kiểm soát tới 70% năng lực trí tuệ toàn cầu trước năm 2030. Khi ấy, vấn đề không còn là công nghệ – mà là chính trị, đạo đức và sự tồn vong của nền dân chủ.
Ở mỗi cấp quản lý – từ cá nhân, tổ chức, đến chính phủ – việc tạo ra những giá trị cốt lõi và neo nó lại chính là cách để giữ lấy bản sắc nhân loại. Những mốc đó không chỉ giúp chúng ta định hướng, mà còn giúp toàn xã hội khỏi bị cuốn trôi.
Chúng ta không thể ngăn công nghệ phát triển, cũng không thể lùi lại phía sau. Nhưng có lẽ, điều còn lại ta có thể làm — là giữ lấy những giá trị không thể thay thế bằng dữ liệu, không thể huấn luyện bằng thuật toán, và không thể sao chép bởi bất kỳ cỗ máy nào.
Và biết đâu, giữa những biến động chưa thể gọi tên, câu hỏi không phải là “AI sẽ đi đến đâu?”, mà là:
“Ta có còn neo vào điều gì đủ vững, để không đánh mất chính mình?”
Bạn nghĩ AI nên được cấp phép như nghề bác sĩ hay không? Còn các tài khoản “siêu ảnh hưởng” – liệu có nên bị kiểm soát như một cơ quan truyền thông? Hãy để lại quan điểm của bạn – và đón đọc phần tiếp theo: “Xã hội đa hệ & Giấy phép Turing – Vì sao cần luật mới?”
Tuong Vy
2025
1. Khủng Hoảng Niềm Tin Trong Biển Dữ Liệu
2. Hiểu biết truyền thông & C2PA – Giải pháp trước tin giả thời đại AI
3. Học tập và lao động thích ứng trong kỷ nguyên AI
4. Quản Trị Neo Trụ Giá Trị trong Kỷ Nguyên AI
5. Xã Hội Đa Hệ & Giấy Phép Turing – Vì Sao Cần Luật Mới?
6. Không hành động, AI sẽ vượt khỏi tầm kiểm soát – Chúng ta phải làm gì?
Bình luận