29 thuật ngữ về trí tuệ nhân tạo bạn nên biết (Phần 2)

29 thuật ngữ về trí tuệ nhân tạo bạn nên biết (Phần 2)

Chia sẻ kiến thức 02/06/2023

Trong Phần 1, chúng ta đã tìm hiểu ý nghĩa của các thuật ngữ phổ biến nhất về AI như Khai thác dữ liệu, Học sâu... Trong Phần 2, hãy cùng FUNiX tiếp tục khám phá các khái niệm nền tảng trong lĩnh vực này.

Ảnh: Internet

>> Phần 1: 29 thuật ngữ về trí tuệ nhân tạo bạn nên biết (Phần 1)

16. Siêu tham số (Hyperparameter)

Siêu tham số là các cài đặt xác định cách một thuật toán hoặc mô hình máy học học và hoạt động. Siêu tham số bao gồm tốc độ học tập, số lượng lớp ẩn trong mạng… Bạn có thể sửa các tham số này để tinh chỉnh hiệu suất của mô hình theo nhu cầu của mình.

17. Mô hình ngôn ngữ lớn (LLM)

Mô hình ngôn ngữ lớn (Large Language Model hay LLM) là một mô hình máy học được đào tạo dựa trên một lượng dữ liệu khổng lồ và sử dụng phương pháp học có giám sát để tạo token tiếp theo trong một ngữ cảnh nhất định nhằm tạo ra các phản hồi ý nghĩa cho đầu vào của người dùng. Từ “lớn” ở đây biểu thị việc sử dụng các tham số mở rộng bằng mô hình ngôn ngữ. Ví dụ: các mô hình GPT sử dụng hàng trăm tỷ tham số để thực hiện nhiều nhiệm vụ xử lý ngôn ngữ tự nhiên.

18. Học máy (Machine learning)

Ảnh: Internet

Học máy là một cách để máy học và đưa ra dự đoán mà không cần được lập trình rõ ràng từ trước. Nó giống như cung cấp dữ liệu cho máy  và trao quyền cho nó đưa ra quyết định hoặc dự đoán bằng cách xác định các mẫu trong dữ liệu.

 

19. Mạng lưới thần kinh (Neural Network)

Mạng lưới thần kinh là mô hình tính toán lấy cảm hứng từ bộ não con người. Nó bao gồm các nút (node) hoặc nơ-ron được kết nối với nhau và được tổ chức thành các lớp. Mỗi nơ-ron nhận đầu vào từ các nơ-ron khác trong mạng, giúp nó học các mẫu và đưa ra quyết định. Mạng lưới thần kinh là một thành phần quan trọng trong các mô hình học máy, giúp chúng thực hiện xuất sắc nhiều loại nhiệm vụ.

20. Sinh ngôn ngữ tự nhiên (NLG)

Sinh ngôn ngữ tự nhiên (Natural Language Generation, hay NLG) liên quan đến việc tạo văn bản mà con người có thể đọc được từ dữ liệu có cấu trúc. NLG được ứng dụng trong việc tạo nội dung, chatbot và trợ lý giọng nói.

21. Xử lý ngôn ngữ tự nhiên (NLP)

Xử lý ngôn ngữ tự nhiên là khả năng máy diễn giải, hiểu và phản hồi văn bản hoặc lời nói. Nó được dùng trong các ứng dụng khác nhau, bao gồm phân tích tình cảm, trả lời câu hỏi và phân loại văn bản.

22. OpenAI

Nguồn: Internet

OpenAI là một phòng thí nghiệm nghiên cứu về trí tuệ nhân tạo thành lập vào năm 2015 và có trụ sở tại San Francisco (Mỹ). OpenAI phát triển các công cụ AI có vẻ thông minh như con người. ChatGPT, sản phẩm nổi tiếng nhất của OpenAI, phát hành vào cuối năm 2022, được đánh giá là chatbot tiên tiến nhất hiện nay nhờ khả năng cung cấp câu trả lời cho nhiều chủ đề.

23. Nhận dạng mẫu (Pattern Recognition)

Nhận dạng mẫu là khả năng của một hệ thống AI xác định và giải thích các mẫu trong dữ liệu. Các thuật toán nhận dạng mẫu tìm thấy các ứng dụng trong nhận dạng khuôn mặt, phát hiện gian lận và nhận dạng giọng nói.

24. Mạng thần kinh hồi quy (RNN)

Mạng thần kinh hồi quy (Recurrent Neural Network, hay RNN) là một loại mạng thần kinh có thể xử lý dữ liệu tuần tự bằng các kết nối phản hồi. nó có thể giữ lại bộ nhớ của các đầu vào trước đó và phù hợp với các tác vụ như xử lý ngôn ngữ tự nhiên và dịch máy.

25. Học tăng cường (Reinforcement Learning)

Học tăng cường là một kỹ thuật học máy trong đó một tác nhân AI học cách đưa ra quyết định thông qua tương tác bằng cách thử dùng nhiều biện pháp khác nhau (trial and error). Tác nhân nhận phần thưởng hoặc hình phạt từ một thuật toán dựa trên hành động của nó, giúp nó nâng cao hiệu suất theo thời gian.

26. Học có giám sát (Supervised Learning)

Học có giám sát là ,ột phương pháp học máy trong đó một mô hình được đào tạo bằng cách sử dụng data được gắn nhãn với đầu ra mong muốn. Mô hình này khái quát hóa từ dữ liệu được dán nhãn và đưa ra dự đoán chính xác về dữ liệu mới.

27. Token hóa (Tokenization)

Token hóa là quá trình chia tài liệu văn bản thành các đơn vị nhỏ hơn được gọi là token. Các token này có thể đại diện cho các từ, số, cụm từ, ký hiệu hoặc bất kỳ thành phần nào trong văn bản mà một chương trình có thể sử dụng. Mục đích của token hóa là hiểu được nhiều nhất về dữ liệu phi cấu trúc mà không cần xử lý toàn bộ văn bản dưới dạng một chuỗi, bởi nó không hiệu quả về mặt tính toán và khó lập mô hình.

28. Phép thử Turing (Turing Test)

Được Alan Turing giới thiệu vào năm 1950, phép thử Turing đánh giá khả năng của máy móc trong việc thể hiện trí thông minh không thể phân biệt được với trí thông minh của con người. Phép thử này liên quan đến việc một người tương tác với con người và máy móc mà không biết trước tương tác nào là với người hoặc với máy. Nếu người này không phân biệt được giữa máy với người, máy được xem như đã vượt qua phép thử. 

29. Học không giám sát (Unsupervised Learning)

Học không giám sát là một phương pháp học máy trong đó mô hình đưa ra suy luận từ các bộ dữ liệu chưa được gắn nhãn (label). Nó phát hiện ra các mẫu trong dữ liệu để đưa ra dự đoán về dữ liệu chưa từng nhìn thấy.

Hiểu ngôn ngữ của trí tuệ nhân tạo

AI là một lĩnh vực đang phát triển với tốc độ chóng mặt. Tuy nhiên, với rất nhiều thuật ngữ AI mới liên tục xuất hiện, thật khó để bắt kịp những phát triển mới nhất trong lĩnh vực này. Việc hiểu các thuật ngữ và khái niệm cơ bản này có thể đặt nền tảng vững chắc giúp bạn đưa tiến sâu hơn vào lĩnh vực trí tuệ nhân tạo.

Tìm hiểu các khóa học lập trình của FUNiX tại đây:

Vân Nguyễn

Dịch từ: https://www.makeuseof.com/glossary-ai-jargon-terms/

ĐĂNG KÝ TƯ VẤN HỌC LẬP TRÌNH TẠI FUNiX

Bình luận (
0
)

Bài liên quan

  • Tầng 0, tòa nhà FPT, 17 Duy Tân, Q. Cầu Giấy, Hà Nội
  • info@funix.edu.vn
  • 0782313602 (Zalo, Viber)        
Chat Button
Chat với FUNiX GPT ×

yêu cầu gọi lại

error: Content is protected !!