ChatGPT có mặt ở khắp mọi nơi, nhưng nó thật sự đến từ đâu?

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam

(PLO)- Thành công đột phá của ChatGPT chỉ đến sau một đêm nhưng nó được xây dựng dựa trên nhiều thập kỷ nghiên cứu.

ChatGPT, một chatbot tiên tiến do OpenAI, một công ty công nghệ tại San Francisco (Mỹ) phát triển, đã nhanh chóng trở nên phổ biến ngay sau khi ra mắt vào cuối tháng 11-2022. Chỉ trong vòng hai tháng, công cụ này đã thu hút được 100 triệu người dùng, đánh dấu một tốc độ phát triển chưa từng có trên Internet.

Sự thành công này càng được củng cố khi OpenAI hợp tác với Microsoft trong một thỏa thuận trị giá 10 tỉ USD, đưa công nghệ này vào các sản phẩm như Office và Bing. Đáp lại, Google đã đẩy nhanh việc phát triển chatbot riêng dựa trên mô hình ngôn ngữ lớn PaLM để không bị tụt hậu trong cuộc đua về AI. ChatGPT hiện tại không chỉ xuất hiện trong các cuộc trò chuyện trên WhatsApp mà còn trong nhiều ứng dụng khác.

Nhưng sự thành công của ChatGPT không phải tự nhiên mà có, mà đó là thành quả của việc xây dựng và nghiên cứu trong nhiều năm.

Lịch sử phát triển của ChatGPT. Ảnh minh họa
ChatGPT đã có một chặng đường dài phát triển. Ảnh minh họa

Thập niên 1980-1990: Mạng thần kinh hồi quy (Recurrent Neural Networks - RNN)

Mô hình ngôn ngữ lớn (Large language model - LLM) là một loại mạng lưới thần kinh đã được đào tạo trên rất nhiều văn bản. Vì văn bản được tạo thành từ các chuỗi chữ cái và từ có độ dài khác nhau nên mô hình ngôn ngữ yêu cầu một loại mạng lưới thần kinh có thể hiểu được loại dữ liệu đó. RNN được phát minh vào những năm 1980, có thể xử lý các chuỗi từ, nhưng chúng được đào tạo chậm và có thể quên các từ trước đó trong một chuỗi.

Năm 1997, các nhà khoa học máy tính Sepp Hochreiter và Jürgen Schmidhuber đã khắc phục điều này bằng cách phát minh ra mạng LSTM (Long Short-Term Memory), mạng thần kinh hồi quy với các thành phần đặc biệt cho phép lưu giữ dữ liệu đầu vào lâu hơn. LSTM có thể xử lý các chuỗi văn bản dài vài trăm từ, nhưng kỹ năng ngôn ngữ còn hạn chế.

2017: Transformers

Bước đột phá đằng sau thế hệ mô hình ngôn ngữ lớn ngày nay xuất hiện khi một nhóm các nhà nghiên cứu của Google phát minh ra Transformers, một loại mạng thần kinh có thể theo dõi vị trí mỗi từ hoặc cụm từ xuất hiện theo một chuỗi.

Nghĩa của từ thường phụ thuộc vào nghĩa của các từ khác đứng trước hoặc sau. Bằng cách theo dõi thông tin theo ngữ cảnh này, Transformers có thể xử lý các chuỗi văn bản dài hơn và nắm bắt ý nghĩa của từ một cách chính xác hơn.

Transformers đôi khi được gọi là mô hình nền tảng, được sử dụng cùng với nhiều nguồn dữ liệu cho nhiều ứng dụng. Ảnh: NVIDIA
Transformers đôi khi được gọi là mô hình nền tảng, được sử dụng cùng với nhiều nguồn dữ liệu cho nhiều ứng dụng. Ảnh: NVIDIA

2018-2019: GPT và GPT-2

Hai mô hình ngôn ngữ lớn đầu tiên của OpenAI chỉ cách nhau vài tháng. Công ty muốn phát triển AI đa năng và tin rằng các mô hình ngôn ngữ lớn là bước quan trọng hướng tới mục tiêu đó. GPT (viết tắt của Generative Pre-training Transformer) đã dẫn đầu, đánh bại các tiêu chuẩn tiên tiến nhất trong việc xử lý ngôn ngữ tự nhiên vào thời điểm đó.

GPT kết hợp Transformers với học tập không giám sát, một cách để đào tạo các mô hình học máy trên dữ liệu (trong trường hợp này là rất nhiều văn bản) chưa được chú thích trước. Điều này cho phép phần mềm tự tìm ra các mẫu trong dữ liệu mà không cần phải cho biết nó đang xem gì. Nhiều thành công trước đây trong học máy dựa vào học tập có giám sát và dữ liệu có chú thích, nhưng việc ghi nhãn dữ liệu bằng tay tương đối chậm, hạn chế kích thước của tập dữ liệu có sẵn để đào tạo.

2020: GPT-3

GPT-2 rất ấn tượng, nhưng phiên bản tiếp theo của OpenAI, GPT-3 đã khiến người ta phải há hốc mồm. Khả năng tạo ra văn bản giống con người của nó là một bước tiến lớn. GPT-3 có thể trả lời các câu hỏi, tóm tắt tài liệu, tạo câu chuyện theo nhiều phong cách khác nhau, dịch giữa tiếng Anh, tiếng Pháp, tiếng Tây Ban Nha và tiếng Nhật…

Một trong những điểm đáng chú ý nhất là lợi ích của GPT-3 đến từ việc phát triển các kỹ thuật hiện có thay vì phát minh ra các kỹ thuật mới. GPT-3 có 175 tỉ tham số (các giá trị trong mạng được điều chỉnh trong quá trình đào tạo), so với 1,5 tỉ của GPT-2.

Nhưng đào tạo văn bản lấy từ Internet lại làm nảy sinh thêm những vấn đề mới, đặc biệt là thông tin sai lệch.

Tháng 1 năm 2022: InstructGPT

OpenAI đã cố gắng giảm lượng thông tin sai lệch và văn bản xúc phạm mà GPT-3 tạo ra bằng cách sử dụng học tăng cường để huấn luyện một phiên bản của mô hình theo sở thích của người thử nghiệm (một kỹ thuật được gọi là học tăng cường từ phản hồi của con người, hay RLHF).

Kết quả là InstructGPT làm theo hướng dẫn của người sử dụng tốt hơn, được gọi là "căn chỉnh" trong thuật ngữ AI và tạo ra ít ngôn ngữ xúc phạm hơn, ít thông tin sai lệch hơn và ít sai sót hơn về tổng thể. Nói tóm lại, InstructGPT ít tệ hại hơn, trừ khi nó được yêu cầu.

Tháng 5-7 năm 2022: OPT, BLOOM

Một trong những trở ngại phổ biến đối với các mô hình ngôn ngữ lớn là chi phí đào tạo chúng rất lớn, khiến các công ty hoặc phòng thí nghiệm nhỏ khó xây dựng được một mô hình. Điều này làm dấy lên mối lo ngại rằng AI đang được xây dựng bởi các nhóm công ty đằng sau những cánh cửa đóng kín, mà không có sự giám sát thích hợp và không có ý kiến đóng góp của cộng đồng nghiên cứu.

Đáp lại, một số dự án hợp tác đã phát triển các mô hình ngôn ngữ lớn và phát hành chúng miễn phí cho bất kỳ nhà nghiên cứu nào muốn nghiên cứu và cải tiến công nghệ. Cụ thể, Meta đã xây dựng và tặng OPT, một bản tái thiết của GPT-3. Tương tự, tổ chức Hugging Face đã tập hợp hơn 1.000 nhà nghiên cứu từ khắp nơi trên thế giới để phát triển BLOOM AI.

Mô hình này được phát triển dựa trên nguyên tắc cộng tác mở, nơi dữ liệu, mã nguồn và kết quả nghiên cứu đều được chia sẻ công khai, cho phép các nhà nghiên cứu và phát triển từ khắp nơi trên thế giới cùng nhau cải thiện và áp dụng mô hình này vào các ứng dụng thực tế.

Tháng 12 năm 2022: ChatGPT

Ngay cả OpenAI cũng bị ấn tượng bởi cách ChatGPT được đón nhận. Giống như InstructGPT, ChatGPT đã được đào tạo bằng cách sử dụng phương pháp học tăng cường dựa trên phản hồi từ những người thử nghiệm.

ChatGPT ngày nay có mặt ở khắp mọi nơi. Ảnh: TIỂU MINH
ChatGPT ngày nay có mặt ở khắp mọi nơi. Ảnh: TIỂU MINH

Sử dụng AI có trách nhiệm

Không hẳn tất cả các thông tin do ChatGPT đều chính xác hoàn toàn. Theo đó, các mô hình ngôn ngữ AI hoạt động bằng cách dự đoán từ tiếp theo nhưng chúng không có kiến thức về ý nghĩa hoặc ngữ cảnh, điều đó có nghĩa là mọi nội dung do các công cụ AI tạo ra đều cần phải được kiểm tra kỹ lưỡng.

Đọc thêm