Mới chỉ trình làng từ cuối tháng 11 năm 2022, nhưng sự lộ diện của ChatGPT đang tạo nên một cơn địa chấn đối với lĩnh vực nghiên cứu trí tuệ nhân tạo nói riêng cũng như với toàn ngành công nghệ nói chung. Với khả năng trình bày các câu trả lời một cách mạch lạc, chỉn chu như người thật, ChatGPT đã làm người sử dụng toàn thế giới khá bất ngờ và thay đổi toàn bộ cách nhìn về công nghệ AI mới này.
Nhiều nhà đầu tư review sự trỗi dậy ChatGPT đang mở ra một cuộc cách mạng công nghệ giống như việc internet hay iPhone lộ diện từ trước đó. Điều này lý giải vì sao, bất chấp bối cảnh suy thoái toàn ngành công nghệ, OpenAI vẫn hấp dẫn được vốn đầu tư với mức định giá lên đến 29 tỷ USD. và đó, nguồn vốn cũng đang đổ vào các startup về loại AI sản sinh (generative AI).
Trên thực tế, AI hay chatbot đều là các công nghệ đã được nói đến từ lâu nhưng chỉ đến sự lộ diện của ChatGPT, mọi người mới nhận ra tiềm năng cũng như sức ảnh hưởng to lớn của các công nghệ này đối với thế giới. Vậy điều gì làm nên sự khác biệt cho ChatGPT so với những người tiền nhiệm mà khiến cả người khổng lồ công nghệ Google cũng phải run sợ?
Nhưng ít ai biết, trái tim cho khả năng giao tiếp như “nói chuyện với con người” của ChatGPT lại do chính các nhà nghiên cứu của Google phát triển và thực hiện mã nguồn mở cho nó: kiến trúc học sâu Transformer.
Kiến trúc này là nền tảng cho việc xây dựng nên các mô hình xử lý ngôn ngữ tự nhiên uy tín như BERT của Google hay họ mô hình GPT (viết tắt của Generative Pre-trained Transformer) của OpenAI với các cái tên uy tín gồm tất cả GPT-2 và GPT-3. Khi đó GPT-3 chính là nền tảng để tạo nên chatbot ChatGPT đang uy tín hiện nay.
Không mấy uy tín với công chúng nên ít ai biết rằng, sự lộ diện của kiến trúc học sâu Transformer đã làm nên bước ngoặt cho các mô hình xử lý ngôn ngữ tự nhiên để từ đó tạo ra được một chatbot như ChatGPT. Để hiểu được tầm quan trọng này, cần biết được cách các cỗ máy xử lý ngôn ngữ con người như thế nào trước khi kiến trúc Transformer này ra đời.
Từ trước đó, các mô hình ngôn ngữ tự nhiên thường đi theo hướng xử lý tuần tự các từ ngữ. Ví dụ mô hình Word2Vec cho phép huấn luyện nên các AI có chức năng hiểu được những từ liên quan đến nhau, như khi bạn nói đến smartphone, máy tính sẽ “liên tưởng” đến cả các từ khác như “smartphone di động”, “iPhone”, “Android”, “màn hình cảm ứng” … Sau đó kiến trúc Mạng thần kinh nhân tạo hồi quy (RNNs) ra đời cho phép xử lý tuần tự các câu trong một đoạn văn bản.
Nhưng việc huấn luyện theo cách tiếp cận này rất chậm chạp cũng như bị giới hạn về lượng dữ liệu cũng có thể được huấn luyện, làm cho máy tính khó cũng có thể liên kết ý nghĩa từng từ với bối cảnh của cả đoạn văn bản hoặc cả bài viết.
Năm 2018, mô hình mới có tên ELMo (Embeddings from Language Models) được giới thiệu và là mô hình số một có cách xử lý ngôn ngữ không tuần tự, nhằm mô phỏng cách con người đọc và xử lý văn bản.
Dùng kiến trúc RNNs, ELMo xử lý đoạn văn bản theo 2 chiều: đọc từ đầu đến cuối và ngược lại, đọc từ cuối lên đầu để sau đó liên kết cả 2 chiều văn bản này để hiểu được ý nghĩa của nó. Mặc dù là một bước tiến dài về cách xử lý ngôn ngữ nhưng ELMo vẫn gặp nhiều khó khăn khi muốn huấn luyện nó với các câu hay các đoạn văn bản ngày càng dài hơn.
Khác với xử lý tuần tự từng từ, từng câu của các mô hình trước đó, kiến trúc Transformer của Google dựa trên cơ chế về sự chú ý (attention mechanism). Cơ chế này cho phép các mô hình xử lý ngôn ngữ dùng các lớp lọc sự chú ý (attention layer) để review được tầm quan trọng của các từ, các câu trong một đoạn văn bản dựa trên mức độ liên quan của nó đến toàn bộ văn bản đó.
Cũng có thể nói mỗi lớp lọc sự chú ý này như một lần học hỏi thêm về đầu vào của dữ liệu, giúp xem xét các phần không giống nhau của câu và tìm hiểu thêm thông tin về ngữ nghĩa hoặc cú pháp. Các lớp lọc này cho phép mô hình vẫn duy trì được tốc độ học hỏi của mình không bị chậm đi khi độ dài của câu tăng lên. Trước đây, các mô hình xử lý chỉ việc hỗ trợ thêm các layer mới để lọc thêm và học hỏi thêm về dữ liệu mới. Nhờ các lớp lọc này, các mô hình cũng có thể quét đồng thời toàn bộ văn bản và hiểu được ngữ nghĩa của nó.
Để so sánh, mô hình xử lý ngôn ngữ BERT uy tín từ trước đó chứa 24 lớp lọc sự chú ý, GPT-2 – mô hình xử lý ngôn ngữ được OpenAI phát hành vào đầu năm 2019 – chứa 12 lớp lọc, trong khi đó GPT-3, mô hình làm nên ChatGPT hiện nay, chứa đến 96 lớp lọc sự chú ý.
và đó, không thể không kể đến một có lợi khác của kiến trúc Transformer là khả năng chọn dùng các mô hình được huấn luyện trước (các pre-trained models) – điều không lộ diện cho đến khi ELMo trình làng. Ý tưởng này giống như ImageNet, cơ sở dữ liệu khổng lồ các hình ảnh được gắn nhãn trước, giúp các mô hình nhận biết hình ảnh không phải huấn luyện từ đầu cho những công việc này.
Trong lúc đó, các khối dữ liệu ngôn ngữ còn phức tạp, khó xử lý hơn nhiều so với các dữ liệu nhận biết hình ảnh. Do vậy, các mô hình xử lý ngôn ngữ cần nhiều dữ liệu hơn để nhận biết được mối quan hệ giữa các từ và các cụm từ. Do vậy, nếu không có các mô hình được huấn luyện trước, chỉ những người khổng lồ công nghệ mới đủ nguồn lực xử lý dữ liệu và huấn luyện các mô hình nhận biết dữ liệu đó, còn đối với các startup nhỏ, điều này là bất khả thi hoặc tiến triển rất chậm.
Các mô hình như GPT-3 được huấn luyện trên 45TB dữ liệu và chứa đến 175 tỷ thông số không giống nhau – lớn nỗi bật so với các mô hình uy tín từ trước đó như BERT của Google, RoBERTa của Facebook, Turing NLG của Microsoft … . Khối dữ liệu của GPT-3 gồm tất cả hơn 8 triệu văn bản với 10 tỷ từ. Đây chính là nền tảng cho khả năng giao tiếp, trò chuyện làm nhiều người khá bất ngờ của ChatGPT.
Ngoài ra, một có lợi khác của các mô hình huấn luyện trước là khả năng tinh chỉnh cho những tác vụ cụ thể mà chẳng cần có sẵn nhiều dữ liệu. Ví dụ, đối với mô hình BERT, bạn chỉ cần vài nghìn mẫu dữ liệu là cũng có thể tinh chỉnh mô hình cho một tác vụ mới nào đó. Còn với mô hình đã được huấn luyện với quá nhiều dữ liệu như GPT-3, chỉ cần được huấn luyện thêm với một lượng dữ liệu nhỏ cũng đủ để ChatGPT thực hiện một tác vụ mới, ví dụ như lập trình.
Trên thực tế, các yếu tố nói trên chỉ là những lợi thế về nền tảng công nghệ so với các chatbot và AI tiền nhiệm, còn để tạo nên ChatGPT với tiềm năng cũng có thể thay đổi cả ngành công nghệ cũng như đe dọa đến vị thế của Google hiện nay, không thể không kể đến đội ngũ những nhà nghiên cứu AI bên trong OpenAI. Chính họ là người làm nên chủ chốt cho sự khác biệt mà ChatGPT đang đem tới.
Còn hơn cả một chatbot với khả năng giao tiếp như người thật, ChatGPT thực sự mở ra một cánh cửa mới cho tiềm năng trí tuệ nhân tạo và khả năng thay đổi nhiều ngành nghề kinh tế cả một ngày nào đó. Vì lý do đó, không khó hiểu khi thấy OpenAI đang được định giá đến 29 tỷ USD ngay cả khi chưa có mô hình kinh doanh cụ thể nào.