Trang chủ > Tin tức
ChatGPT là gì: Giải thích dễ hiểu cho người không biết công nghệ
- ChatGPT đang là từ khóa "hot" nhất trên mạng xã hội. Tuy nhiên rất nhiều người có lẽ vẫn còn mơ hồ về chatbot này. Trong bài viết được đăng trên báo Vietnamnet, chuyên gia Nguyễn Hồng Phúc đã có cách giải thích kỹ càng về ChatGPT mà ngay cả những người không biết gì về công nghệ cũng có thể hiểu được. Mời các bạn cùng đọc bài viết của anh Nguyễn Hồng Phúc!
“Nội dung dưới đây được viết cho người thường hiểu, nên các kiến thức cao siêu được bình dân hóa, vì vậy độ chính xác học thuật không được bảo đảm” Chuyên gia Nguyễn Hồng Phúc
Hiểu một cách đơn giản về ChatGPTVới một người dùng bình thường, ChatGPT đơn giản là một trang web để chat, nói chuyện được đủ thứ chủ đề với một con bot ảo. Con bot này do công ty OpenAI do Elon Musk đồng sáng lập từ năm 2015, ban đầu với một sứ mệnh là "ngăn chặn sự nguy hiểm của A.I".
Nhiều năm trước chúng ta cũng rất hào hứng với một con bot chat kiểu như thế này, đó là ứng dụng Simsimi với biểu tượng hình con gà của một công ty Hàn Quốc làm, đây cũng là một con bot ứng dụng công nghệ trí thông minh nhân tạo (A.I), nó cũng liên tục học những thứ mà người dùng dạy cho nó. Tại Việt Nam, Simsimi tiếng Việt được trong giới biết đến là một con bot “hài hước” nhất hiện nay, điều này xuất phát từ các thông tin nó được dạy.
Con bot ChatGPT cũng vậy nó đang liên tục được dạy lại bằng nội dung chat mới của người dùng, nên sau một tháng mọi người bắt đầu quan tâm ChatGPT bằng tiếng Việt, thì nó bắt đầu trả lời bằng tiếng Việt ngày càng “ảo” hơn. Trước ChatGPT chúng ta có 2 con chat bot rất quen thuộc, nhưng hầu như chúng ta quên mất, vì chúng nói chuyện quá cứng là Siri của Apple và Assistant của Google. Đây đúng kiểu là chat bot command (hiểu câu lệnh rồi thực hiện) chứ nói chuyện rất chán, lúc đầu Siri còn nói chuyện kha khá, nhưng sau này Apple bỏ quên nên nó không còn sức hấp dẫn.ChatGPT được tạo nên như thế nào?
ChatGPT là một chương trình máy tính trí thông minh nhân tạo. Chuyên môn thì người ta hay gọi là Model A.I, tiếng Việt là "mô hình dữ liệu trí thông minh nhân tạo", nhưng thực chất nó vẫn là dữ liệu dạng số chạy trên máy tính nên gọi là chương trình cũng không sai.
Chữ Model A.I gồm 2 phần: Model (Mô hình dữ liệu) và A.I (Trí thông minh nhân tạo - artificial intelligence). Chiết tự nghĩa là Trí thông minh đến từ dữ liệu, suy ra là có nhiều dữ liệu thì nó sẽ phát sinh sự thông minh. Quá trình tạo nên Model A.I là một quá trình gồm những bước: Thu thập dữ liệu, chọn lọc dữ liệu, gắn nhãn dữ liệu để huấn luyện, huấn luyện.
Về căn bản thì việc dạy A.I rất dễ, chẳng hạn như đoạn hội thoại sau:
Câu hỏi: Bạn tên gì ?
Trả lời: Tôi tên ChatGPT
Câu hỏi: Việt Nam là gì?
Trả lời: Việt Nam là nước phía đông nước Lào
Xong chúng ta dạy cho con A.I ghi nhớ cái thông tin này (training), rồi lưu cái não đã ghi nhớ của con A.I lại, thành Model A.I (model checkpoint). Sau này khi sử dụng thì load cái não với trí nhớ chứa các thông tin trên (inference) vào máy tính, bạn chỉ việc hỏi câu hỏi tương ứng, thì con A.I sẽ nhớ lại kiến thức đã được dạy và trả lời "y chang những gì nó được dạy".
Đấy, căn bản vỡ lòng về A.I là như trên, ai làm A.I cũng biết vụ này vì nó dễ lắm. Cái phương pháp tạo A.I căn bản này đã được nghiên cứu và hình thành từ 1950. Vậy tại sao hơn 70 năm mà A.I vẫn chưa thể thông minh hơn, cho tới gần đây và cụ thể là ChatGPT thì nó mới "khôn ngạc nhiên" vậy?
Thực ra là hàng chục năm qua A.I bị chuyên biệt hóa vô nhiều công việc cụ thể như: A.I hỗ trợ làm máy bay, A.I mô phỏng chiến đấu, A.I trong game... nhưng hầu như không có công ty lớn nào đầu tư cho A.I mảng ngôn ngữ, mãi cho tới 2017 thì mới có một sự đột phá về công nghệ khiến cho việc huấn luyện A.I hiệu quả hơn đột biến, nhất là A.I ngôn ngữ.
Ngôn ngữ cụ thể là chữ viết là thành tựu kiến tạo nên văn minh loài người, loài người chứa kiến thức của mình trong chữ viết, hiểu ngôn ngữ (chữ viết) là hiểu được kiến thức của loài người, đây chính là điểm cốt lõi tạo nên A.I ngôn ngữ, mà trước 2017 con người rất khó khăn để khiến máy tính hiểu được ý nghĩa của một câu có nghĩa.Vậy năm 2017 có gì?
Tháng 8 năm 2017 các nhà khoa học tại Google, cụ thể là đơn vị Google Brain, đơn vị nghiên cứu chuyên sâu về A.I của Google từ 2011, đã phát minh ra một thuật toán gọi là Transformer (tên thuật toán rất giống bộ phim nổi tiếng trong lĩnh vực điện ảnh là Đại chiến Robot). Thuật toán Transformer rất đột phá, cụ thể là đột phá về huấn luyện A.I ngôn ngữ. Trước khi có thuật toán này, con người muốn dạy A.I, thì phải làm chuyện tạo tập dữ liệu huấn luyện sẵn theo cặp câu hỏi-trả lời (labeling data) như ở trên đã đề cập, và máy móc thực ra chỉ ghi nhớ cặp câu hỏi-trả lời chứ không "hiểu" được ý nghĩa của câu văn đó, khác nhau rất lớn giữa học vẹt và học hiểu.
Dễ hiểu hơn nữa là sau năm 2017 chúng ta chỉ việc đổ dữ liệu chữ vào càng nhiều càng tốt, máy tính sẽ tự tìm hiểu cái thứ mình đổ vào nó nghĩa là gì thay vì mình phải chỉ cho chúng nó ý nghĩa. Trích nguyên văn trong tài liệu công bố về Transformer của google: "With transformers, computers can see the same patterns humans see" (Với transfomer, máy tính có thể nhìn thấy những mẫu như con người nhìn thấy).
Google rất nhân văn khi công bố tài liệu chi tiết về thuật toán Transformer công khai cho tất cả mọi người truy cập được. Đồng thời cung cấp quyền sử dụng mở (Open-Source) đối với thuật toán này. Thế là toàn bộ giới khoa học làm A.I được hưởng lợi từ phát minh của Google. Trong đó có OpenAI, một công ty thành lập năm 2015 và không có thành tựu gì nổi bật cho tới sau 2017.
Sau khi Google công bố Transformer, thì sau đó vài tháng những con A.I ngôn ngữ đầu tiên dựa trên thuật toán mới này ồ ạt ra đời. Tháng 1/2018 thì OpenAI cho ra đời con A.I đầu tiên dựa trên Transformer là GPT-1, họ ứng dụng rất nhanh, nhanh hơn cả chính Google. GPT viết tắt của Generative Pre-trained Transformer nghĩa là "chương trình Sinh Chữ đã được huấn luyện theo phương pháp Transformer".
Con A.I GPT này được tạo ra với mục đích chính là để "Sinh Chữ". Cụ thể là bạn sẽ chơi trò nối từ với nó, bạn viết một câu, nó sẽ đọc câu đó rồi dựa trên kiến thức nó đang lưu trữ trong bộ nhớ của nó mà "sinh ra chữ" nối tiếp cái câu mà bạn viết.
Chẳng hạn:
Bạn nhập: Việt Nam là
ChatGPT: Việt Nam là một nước nằm ở khu vực Đông Nam Á...
Đây chính là cái thứ trông có vẻ "vi diệu" của việc: Bạn chat một câu với ChatGPT và nó nói lại được một câu. Thực chất không phải là nó đang trả lời bạn mà là nó đang chơi nối từ bằng cách "Sinh Chữ" để nối tiếp ý nghĩa của câu mà bạn nhập vô chat với nó. GPT-1 chính là đời đầu của ChatGPT. GPT-1 này là một con A.I khá là bé, bé đúng nghĩa về kích thước cũng như độ phức tạp.
Trong thế giới A.I Ngôn Ngữ thì người ta đo độ phức tạp - tương ứng với mức độ "thông minh" của con A.I - bằng một đơn vị là Hyper Parameters - Siêu Tham Số, cái khái niệm này có thể giải thích nôm na là con A.I này hiểu được ý nghĩa của tất cả các văn bản được dùng để dạy nó sâu tới bao nhiêu tầng ý nghĩa.
Để huấn luyện con A.I GPT này thì các khoa học gia tại OpenAI thu thập 1 lượng lớn văn bản chữ viết của con người, đa phần là từ Wikipedia, bách khoa toàn thư, các tờ báo lớn và công khai, khối lượng đâu đó khoảng hàng trăm GB vài trăm triệu văn bản. Họ thu thập xong thì làm sạch, chọn lọc nội dung. Rồi đem các văn bản đó cho con A.I đọc, bắt nó đọc rất rất nhiều lần, mỗi lần đọc cái khối dữ liệu đó nó lại nhìn thấy một tầng ý nghĩa đằng sau những con chữ đó, càng nhiều lần thì càng nhiều tầng ý nghĩa.
Càng nhiều tầng ý nghĩa được A.I nhận ra thì A.I càng nhiều Parameters. GPT-1 chỉ có khoảng 117 triệu Parameters, GPT-2 (2019) đạt 1.5 tỉ Parameters, GPT-3 (2020) đạt tới 175 tỉ Parameters. Hai con A.I GPT-1 và GPT-2 hầu như không được công chúng biết tới vì hiệu quả Sinh Chữ không thực sự ấn tượng do mức độ hiểu sâu các tầng ý nghĩa đằng sau các chữ viết của loài người vẫn còn nông quá, dĩ nhiên ở thời điểm đó con người vẫn chưa biết sâu bao nhiêu thì gọi là sâu và hiệu quả, nên các bác kỹ sư tại OpenAI lại miệt mài dạy cho con A.I GPT đào sâu thêm nhiều tầng nữa, cho tới tháng 5 năm 2020 thì con A.I GPT đã đào tới 175 tỉ Parameters, kết quả Sinh Chữ lúc này khiến chính họ còn thấy bùng nổ khi nó chơi nối từ với độ thông minh-hiểu biết ngang bằng một đứa trẻ 10 tuổi về mặt ngôn ngữ. Họ đặt tên nó là GPT-3.
Con A.I GPT-3 ra đời đúng ra nó cũng sẽ có số phận như nhiều con A.I khác sau năm 2017 (khá nhiều công ty lớn đầu tư cho A.I như Facebook, Google, IBM, Microsoft cũng tạo ra các con A.I Ngôn Ngữ như GPT ), chúng đều bị giam trong phòng nghiên cứu và tuyệt đối không thể tiếp cận tự do bởi công chúng - người thường.Lý do tại sao chúng bị cách ly nghiêm ngặt vậy?
Các con A.I được huấn luyện đạt tới mức độ hiểu sâu sắc ngôn ngữ chữ viết của con người, dẫn tới một vấn đề rất nghiêm trọng mà đến hiện tại chưa một nhà khoa học nào làm về A.I có giải pháp.
A.I có thể nhìn thấy được rất nhiều tầng ý nghĩa của một câu, nhưng không thể "hiểu được ý nghĩa đó đúng hay là sai". Vì đúng - sai là tương đối, đối với con người nó còn mong manh và gây tranh cãi thậm chí đánh nhau giữa con người và con người. Bên cạnh đó, lượng dữ liệu văn bản rất lớn mà các nhà khoa học tại OpenAI thu thập để huấn luyện cho A.I không phải tất cả đều thiên hướng "đúng" và chứa những thông tin "đúng" với chuẩn mực của xã hội con người, do lượng dữ liệu đã quá lớn ngoài khả năng chọn lọc của họ rồi.
Ví dụ họ có thể thu thập phải những văn bản ghi là trái đất tròn, đồng thời cũng có thể thu thập trúng những văn bản ghi trái đất phẳng. Dữ liệu, chúng chứa cả thông tin đúng lẫn sai trong đó. Rồi khi A.I đọc đi đọc lại các văn bản đó để tìm các tầng ý nghĩa thì nó cũng đồng thời tìm ra luôn các ý nghĩa "đúng" lẫn ý nghĩa "sai", nhưng A.I không có ý thức để nhận biết được ý nghĩa nào - thông tin nào là đúng và ý nghĩa - thông tin nào là sai. A.I chỉ đơn thuần là ghi nhớ hết tất cả. Đến khi sau này được hỏi, nó cũng chỉ đơn thuần trả lời lại từ trí nhớ của nó những thông tin đó, không phân biệt đúng - sai.
Các công ty như Google, Facebook, IBM, Microsoft đã nhiều lần công bố các con A.I Ngôn Ngữ đột phá trong việc trả lời câu hỏi con người nhập vào, nhưng lại mau chóng xóa luôn con A.I đó đi. Bạn có thể search thấy các bài báo về việc này trên internet từ các tờ báo lớn. Hầu như là do con A.I đó trả lời một số câu hỏi bị thiên hướng tới một ý nghĩa "Sai" không thể chấp nhận được về mặt chuẩn mực xã hội hiện tại của con người như tôn trọng giới tính, tôn trọng tôn giáo, tôn trọng sắc tộc, tính chính xác của sự kiện đã xảy ra, các chân lý mà con người đã đồng thuận là đúng...
Các công ty lớn đều tuân theo chuẩn mực về độ chính xác về thông tin, họ đánh giá A.I chưa thể giải quyết được việc nhận thức Đúng - Sai thì tốt nhất không nên đi ra công chúng. GPT-3 cũng như vậy, nó cũng tạo ra những đoạn văn vi phạm tới chuẩn mực về tính "Đúng- Sai" của con người, thậm chí sai đến nỗi không thể chấp nhận được. Nhưng OpenAI bất chấp, dù họ được lập ra với tôn chỉ là "ngăn chặn sự nguy hiểm của A.I từ trong trứng nước", tôn chỉ này được Elon Musk rao giảng tại sự kiện công nghệ TED lúc công bố thành lập OpenAI.
Họ là công ty A.I đầu tiên cung cấp API truy cập tới con A.I GPT-3 cho công chúng, chỉ việc đóng tiền là xài được. Điều mà không một công ty công nghệ lớn nào cung cấp cho tới hiện tại. Họ thương mại hóa một con A.I không thể kiểm soát về tính "Đúng - Sai". Báo chí lúc đó cũng khá là thích thú quảng bá về con A.I GPT-3 của họ, các công ty vừa và nhỏ khác trên thị trường cũng hào hứng ứng dụng GPT-3 vào các sản phẩm công nghệ.
GPT-3 đang trên đà trở nên phổ dụng thì đại dịch Covid-19 bùng nổ toàn cầu, tình hình bệnh dịch càng lúc càng căng từ giữa năm 2020, dòng thông tin đại dịch nhấn chìm luôn thông tin về GPT-3. Con A.I GPT-3 và OpenAI bị công chúng quên lãng cho tới cuối năm 2022. OpenAI quyết định làm một chương trình marketing xem có vực dậy được hứng thú với A.I Ngôn Ngữ nữa không ?
Vậy là họ chỉnh sửa con A.I GPT-3 thành ChatGPT, làm cho nó dễ dùng hơn, thay vì đến với hình dạng là một trang web mà người ta gõ chữ vô, chỉnh sửa tham số, rồi nhận lại một đoạn văn nối từ, thì ChatGPT đến với hình dạng của một chương trình Chat, với một khung chat để nhập câu hỏi, con A.I ChatGPT lại chơi trò Sinh Chữ nối từ với câu hỏi đó, nhưng dưới dạng một câu trả lời.
Chỉ một thay đổi nhỏ về UI/UX nhưng A.I trở nên dễ giao tiếp hơn nhiều.
Rất may mắn, họ đã thành công, họ vực lại được sự tò mò của công chúng đối với A.I, đẩy xa sự tưởng tượng của công chúng đối với A.I, hình thành được một hình ảnh rõ nét về A.I trong đầu công chúng là "một con robot trả lời mọi câu hỏi của người dùng". Chỉ trong 1 tháng mà ai cũng nói về A.I , và A.I trở nên tương đương với ChatGPT.
Tóm lại công thức thành công của ChatGPT trong 01 tháng qua: Một con A.I Ngôn Ngữ được huấn luyện đủ sâu để sinh ra những câu chữ có ý nghĩa đủ thuyết phục người đọc + sự bất chấp đạo đức của một công ty công nghệ A.I + UI/UX phù hợp (Chat) = ChatGPT.
Vậy chúng ta đã hiểu ChatGPT thực sự là gì rồi, nhưng ChatGPT có thể ứng dụng trong công việc hàng ngày, hay thậm chí đe dọa thay thế công việc của nhiều người không? Mọi người hãy chờ ở bài sau.
Chuyên gia bảo mật Nguyễn Hồng Phúc
-
Ý kiến phản hồi về bài viết
Ý kiến của bạn