Ngày đăng 30/1/2024 845 Lượt xem
OpenAI gần đây đã công bố một tuyên bố báo chí xác nhận rằng họ đã nâng cấp phiên bản thử nghiệm GPT-4 Turbo. Trong tuyên bố, họ cũng thông báo về việc tối ưu hóa hiệu suất của các phiên bản hiện có và phát hành một phiên bản mới. Bản phát hành và API nâng cấp này bao gồm hai mô hình nhúng văn bản, bản xem trước GPT-4 Turbo đã được cải tiến, bản nâng cấp GPT-3.5 Turbo và mô hình kiểm tra.
OpenAI đã phát hành phiên bản xem trước mới của GPT-4 Turbo cùng với API nâng cấp. Dựa trên phản hồi từ các nhà phát triển về phiên bản xem trước sớm, mô hình này được gắn mã là "gpt-4-0125-preview". Thông tin cho biết rằng mô hình này tập trung vào việc giải quyết vấn đề tải mô hình chậm trên hệ thống, từ đó giúp hệ thống hoàn thành nhiệm vụ một cách kỹ lưỡng hơn và mang lại kết quả tốt hơn.
Đồng thời, phiên bản mới cũng đã cải thiện khả năng hỗ trợ cho các ngôn ngữ ngoài tiếng Anh và giới thiệu mô hình "gpt-4-turbo-preview" tự động trỏ đến bản xem mới nhất. OpenAI cũng đang lên kế hoạch ra mắt đầy đủ GPT-4 Turbo với những khả năng vượt trội trong những tháng sắp tới.
Ngoài việc giới thiệu bản xem trước của GPT-4 Turbo, OpenAI cũng ra mắt hai mô hình nhúng mới trong API nâng cấp, bao gồm một mô hình nhúng text-embedding-3-small nhỏ hơn và hiệu quả hơn, cùng với một mô hình nhúng text-embedding-3-large lớn hơn và mạnh mẽ hơn.
Việc nhúng là quá trình chuyển đổi một khái niệm thành một chuỗi các số biểu thị bằng ngôn ngữ tự nhiên hoặc mã. Quá trình nhúng giúp các mô hình học máy và các thuật toán khác hiểu được cách mà nội dung liên quan và thực hiện các tác vụ như phân cụm hoặc truy xuất dễ dàng hơn. Các ứng dụng như truy xuất kiến thức trong ChatGPT và Trợ lý API, cũng như nhiều công cụ phát triển tạo tăng cường truy xuất (RAG) khác cũng sử dụng khái niệm nhúng. Để hiểu rõ hơn về hai mô hình này, chúng ta có thể tìm hiểu thêm trong phần dưới đây.
Mô hình nhúng text-embedding-3-small đã được cải thiện đáng kể so với mẫu text-embeding-ada-002 được ra mắt vào tháng 12 năm 2022.
Về hiệu suất, điểm trung bình của text-embedding-3-small trên điểm chuẩn chung truy xuất đa ngôn ngữ (MIRACL) đã tăng từ 31,4% lên 44,0%. Đối với Common English Task Benchmark (MTEB), điểm trung bình cũng đã tăng từ 61,0% lên 62,3%.
Về mặt giá cả, mô hình text-embed-3-small chỉ có giá khoảng 1/5 so với text-embed-ada-002, đây là một mức giảm đáng kể.
Mô hình nhúng text-embedding-3-large là một mô hình mới với hiệu suất tốt nhất được ra mắt trong lần cập nhật API này. So sánh với text-embed-ada-002, trên MIRACL, điểm trung bình đã cải thiện từ 31,4% lên 54,9%. Đồng thời, trên MTEB, điểm trung bình cũng đã được cải thiện từ 61,0% lên 64,6%.
OpenAI cũng giới thiệu hỗ trợ rút ngắn mã nguồn trong thông cáo báo chí, cho phép các nhà phát triển thực hiện đánh đổi giữa yêu cầu lưu trữ và tính toán thấp hơn để đạt được mức độ chính xác nhất định. Rút ngắn mã nguồn là quá trình loại bỏ các chi tiết ít quan trọng hơn khỏi một nhãn phức tạp mà vẫn giữ được ý chính.
Trong lĩnh vực API, GPT-3.5 Turbo cũng đã được cải thiện và mang lại khả năng hoạt động tốt khi thực hiện nhiều tác vụ khác nhau. Nó không chỉ giảm chi phí so với GPT-4 mà còn đảm bảo tốc độ thực thi nhanh hơn. Vì vậy, việc giảm 50% giá đầu vào và giảm 25% giá đầu ra sẽ mang lại lợi ích lớn cho người dùng trả tiền. Giá đầu vào mới được cố định ở mức 0,0005 USD cho mỗi 1000 mã thông báo, trong khi giá đầu ra được đặt ở mức 0,0015 USD cho mỗi 1000 mã thông báo. Điều này giúp giảm đáng kể chi phí cho cả người dùng và các nhà phát triển.
Kết luận
OpenAI thông báo về sự tiến bộ đáng kể trong các mô hình và dịch vụ AI của họ gần đây. Việc nâng cấp API lên mô hình xem trước GPT-4 Turbo, đồng thời tập trung vào việc nâng cao hiệu suất và hỗ trợ ngôn ngữ, đã mang lại nhiều lợi ích cho cộng đồng phát triển. Sự giới thiệu các mô hình nhúng mới cũng đã đem lại những cải tiến đáng kể về hiệu quả và các chỉ số hiệu suất như điểm MIRACL và MTEB, đánh dấu một bước tiến mới đầy triển vọng.