Nội dung và lý giải được chia sẻ bởi chuyên gia công nghệ Nguyễn Hồng Phúc về những gì cơ bản nhất của trí tuệ nhân tạo (AI) mang tên ChatGPT.
ChatGPT là gì?
Theo chuyên gia công nghệ Nguyễn Hồng Phúc, để giải thích một cách đơn giản với đại chúng, trí tuệ nhân tạo ChatGPT hiện nay là một trang web để người dùng nói chuyện được mọi chủ đề với một chatbot (chương trình trả lời tự động) ảo. Mô hình bot này được công ty OpenAI, doanh nghiệp do tỉ phú Elon Musk đồng sáng lập từ năm 2015, đưa vào hoạt động với sứ mệnh "ngăn chặn sự nguy hiểm của AI".
ChatGPT liên tục được người dùng "dạy dỗ" thông qua các nội dung trò chuyện và chỉ sau thời gian ngắn người Việt quan tâm tới AI này, chương trình đã bắt đầu trả lời bằng tiếng Việt hết sức nhuần nhuyễn. Trước ChatGPT, người dùng đã quen thuộc với 2 chatbot trong vai trò trợ lý ảo là Siri (Apple) và Assistant (Google). Ngoài ra có thể kể thêm đến Cortana (Microsoft), Alexa (Amazon) nhưng hầu như mọi người quên mất chúng vì cách nói chuyện dễ gây nhàm chán, hoạt động theo hình thức "chatbot command", tức hiểu khẩu lệnh và thực hiện theo, ít có sự đối đáp, vận dụng ngữ cảnh.
ChatGPT ra đời thế nào?
ChatGPT là một chương trình máy tính trí thông minh nhân tạo, giới chuyên môn thường gọi gọi là Model AI (mô hình dữ liệu trí thông minh nhân tạo), nhưng thực chất vẫn là dữ liệu dạng số chạy trên máy tính, do đó cách gọi "chương trình" không sai. "Model AI" gồm 2 phần: Model (Mô hình dữ liệu) và AI (Trí thông minh nhân tạo - Artificial Intelligence), nghĩa là "Trí thông minh đến từ dữ liệu", từ đó cho thấy càng nhiều dữ liệu thì AI càng phát sinh sự thông minh.
Quá trình tạo nên Model AI gồm những bước như thu thập dữ liệu, chọn lọc dữ liệu, gắn nhãn dữ liệu để huấn luyện. Việc dạy AI cơ bản cần tạo tập dữ liệu để chương trình ghi nhớ thông tin. Khi người dùng đặt những câu hỏi tương ứng, AI sẽ "nhớ" lại kiến thức đã được dạy và trả lời giống với những gì đã lưu.
Phương pháp tạo ra AI cơ bản trên đã được nghiên cứu và hình thành từ khoảng năm 1950 nhưng tới hơn 70 năm sau vẫn chưa có nhiều đột phá, cho tới khi ChatGPT ra mắt công chúng, thể hiện sự thông minh "đáng kinh ngạc". Trên thực tế, hàng chục năm qua AI bị chuyên biệt hóa vào các công việc cụ thể như hỗ trợ làm máy bay, mô phỏng chiến đấu, AI trong game... nhưng hầu như không có công ty lớn nào đầu tư cho AI mảng ngôn ngữ. Mãi tới 2017 mới có một sự đột phá về công nghệ khiến cho việc huấn luyện AI hiệu quả hơn theo hướng đột biến, nhất là AI ngôn ngữ.
Ngôn ngữ, cụ thể là chữ viết, là thành tựu kiến tạo nên văn minh loài người. Con người chứa kiến thức của mình trong chữ viết nên hiểu chữ viết là hiểu được kiến thức của loài người. Đây chính là điểm cốt lõi tạo nên AI ngôn ngữ. Trước 2017 con người rất khó khăn để khiến máy tính hiểu được ý nghĩa của một câu có nghĩa.
Đột phá của năm 2017
Tháng 8.2017 các nhà khoa học tại Google Brain - đơn vị nghiên cứu chuyên sâu về AI của Google từ 2011 - đã phát minh ra một thuật toán đặt tên Transformer. Thuật toán mới đã mang tới đột phá trong việc huấn luyện AI ngôn ngữ. Trước đây, loài người muốn dạy AI phải tạo tập dữ liệu huấn luyện sẵn theo cặp Câu hỏi - Trả lời (Labeling Data) như đã đề cập, và máy móc thực chất chỉ ghi nhớ cặp đối đáp mà không "hiểu" được ý nghĩa của câu văn đó, tức "học vẹt" không phải "học hiểu".
Sau năm 2017, các nhà khoa học chỉ việc đổ dữ liệu chữ vào càng nhiều càng tốt, máy tính sẽ tự tìm hiểu nội dung đưa vào có nghĩa là gì, thay vì con người phải chỉ cho trí tuệ nhân tạo thấy ý nghĩa. Nguyên văn trong tài liệu công bố về Transformer của Google có đoạn: "...with Transformers, computers can see the same patterns humans see" (tạm dịch: "nhờ có Transfomer, máy tính có thể hiểu được ngữ cảnh như con người").
Google công khai tài liệu chi tiết về thuật toán Transformer, đồng thời cung cấp quyền sử dụng mở (Open-Source) đối với thuật toán này, nhờ đó toàn bộ giới khoa học làm AI được hưởng lợi từ phát minh của "gã khổng lồ tìm kiếm", trong đó có OpenAI - một công ty thành lập năm 2015 và không có thành tựu gì nổi bật cho tới sau 2017.
Vài tháng sau sự kiện trên, những AI ngôn ngữ đầu tiên dựa trên thuật toán mới này ồ ạt ra đời. Tháng 1.2018, OpenAI "chào sân" trí tuệ nhân tạo đầu tiên dựa trên Transformer mang tên GPT-1 nhờ khả năng ứng dụng rất nhanh, có thể nói nhanh hơn cả chính Google. GPT viết tắt của Generative Pre-trained Transformer (chương trình Sinh Chữ đã được huấn luyện theo phương pháp Transformer).
GPT đời đầu được tạo ra với mục đích chính là "Sinh Chữ", hiểu đơn giản người dùng sẽ chơi trò nối từ với trí tuệ nhân tạo. Khi họ viết 1 câu, AI sẽ dựa trên kiến thức đang lưu trữ trong bộ nhớ mà "sinh ra chữ" nối tiếp vào nội dung người dùng viết. Ví dụ: con người nhập văn bản "Việt Nam là", ChatGPT sẽ tiếp: "Việt Nam là một nước nằm tại khu vực Đông Nam Á...".
Đây chính là thứ trông có vẻ "vi diệu" của việc người dùng chat một câu với ChatGPT và AI nói lại được một câu. Thực chất AI không trả lời người dùng mà đang chơi nối từ bằng cách "sinh ra chữ" để nối tiếp ý nghĩa của câu mà con người nhập vào bảng trò chuyện.
Các thế hệ GPT và thước đo độ thông minh của AI
GPT-1 chính là đời đầu của ChatGPT. GPT-1 là một AI khá nhỏ, cả về kích thước cũng như độ phức tạp. Trong thế giới AI ngôn ngữ, các nhà khoa học đo độ phức tạp - tương ứng với mức độ thông minh của AI - bằng đơn vị là Hyper Parameters - Siêu tham số, nôm na AI hiểu văn bản được dùng trong huấn luyện sâu tới bao nhiêu tầng ý nghĩa.
Để huấn luyện GPT, các khoa học gia tại OpenAI thu thập lượng lớn văn bản chữ viết của con người, đa phần từ Wikipedia, Bách khoa toàn thư, các tờ báo lớn và công khai... với khối lượng có thể lên tới vài trăm triệu văn bản. Họ thu thập xong sẽ "làm sạch", chọn lọc nội dung trước khi đưa cho AI đọc và bắt đọc rất nhiều lần. Mỗi lần đọc khối dữ liệu, AI lại "nhìn thấy" một tầng ý nghĩa đằng sau những con chữ, càng nhiều lần thì càng nhiều tầng ý nghĩa.
Càng nhiều tầng ý nghĩa được AI nhận ra thì trí tuệ nhân tạo càng nhiều Parameters (tham số). Ví dụ, GPT-1 có khoảng 117 triệu Parameters, GPT-2 (ra đời năm 2019) đạt 1,5 tỉ Parameters và tới GPT-3 (2020) đạt đến 175 tỉ Parameters. Trong đó, GPT-3 chính là lõi của ChatGPT mà con người biết đến hiện nay.
Về GPT-1 và GPT-2, hai AI này hầu như không được công chúng biết tới vì hiệu quả sinh chữ chưa thực sự ấn tượng, mức độ hiểu sâu các tầng ý nghĩa đằng sau chữ viết của loài người vẫn còn nông. Ở thời điểm đó, con người vẫn chưa biết sâu bao nhiêu thì gọi là "sâu và hiệu quả" nên các kỹ sư tại OpenAI lại miệt mài dạy cho GPT đào sâu thêm nhiều tầng nữa, cho tới tháng 5.2020 thì đào tới 175 tỉ Parameters, kết quả "sinh chữ" lúc này khiến chính họ cũng thấy bùng nổ khi khả năng chơi nối từ với độ thông minh, hiểu biết ngang bằng một đứa trẻ 10 tuổi về mặt ngôn ngữ. Họ quyết định đặt tên AI này là GPT-3.
GPT-3 ra đời đáng lẽ có chung số phận như nhiều AI khác sau năm 2017 (khá nhiều công ty lớn đầu tư cho AI như Facebook, Google, IBM, Microsoft cũng tạo ra các trí tuệ nhân tạo ngôn ngữ như GPT): chúng đều bị "giam" trong phòng nghiên cứu và tuyệt đối không thể tiếp cận tự do bởi công chúng (người thường).