Mô hình đào tạo AI mới: Sự tiến hóa công nghệ từ kiểm soát tập trung đến hợp tác phi tập trung

Sự tiến hóa của mô hình đào tạo AI: từ kiểm soát tập trung đến cách mạng công nghệ hợp tác phi tập trung

Trong toàn bộ chuỗi giá trị của AI, việc huấn luyện mô hình là giai đoạn tiêu tốn nhiều tài nguyên nhất và có ngưỡng kỹ thuật cao nhất, trực tiếp quyết định giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với việc gọi nhẹ nhàng trong giai đoạn suy diễn, quá trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, là "ngành công nghiệp nặng" thực sự trong xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương thức huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện Phi tập trung mà bài viết này sẽ tập trung thảo luận.

Sự tiến hóa của phương thức đào tạo AI: Cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung phối hợp

Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu suất cao địa phương, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, cho đến tất cả các thành phần của khung đào tạo đều được điều phối và vận hành bởi một hệ thống điều khiển thống nhất. Kiến trúc phối hợp sâu sắc này làm cho việc chia sẻ bộ nhớ, đồng bộ hóa gradient và cơ chế chịu lỗi đạt hiệu quả tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, có ưu điểm về hiệu suất cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.

Huấn luyện phân tán là phương thức chính trong việc huấn luyện mô hình lớn hiện nay, cốt lõi của nó là chia nhỏ nhiệm vụ huấn luyện mô hình và phân phối chúng đến nhiều máy tính để thực hiện phối hợp, nhằm vượt qua các nút thắt trong tính toán và lưu trữ đơn máy. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn do các tổ chức trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết tốc độ cao NVLink, do nút chính đồng bộ hóa các nhiệm vụ con. Các phương pháp chính bao gồm:

  • Dữ liệu song song: Mỗi nút đào tạo các tham số dữ liệu khác nhau được chia sẻ, cần phải khớp trọng số mô hình.
  • Song song mô hình: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ
  • Đường ống song song: Thực hiện tuần tự theo giai đoạn, nâng cao thông lượng
  • Phân tán tensor: phân tách tinh vi tính toán ma trận, nâng cao độ phân giải song song

Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ điều khiển từ xa nhiều "văn phòng" nhân viên hợp tác để hoàn thành nhiệm vụ. Hiện nay, hầu như tất cả các mô hình lớn chính đều hoàn thành đào tạo theo cách này.

Sự tiến hóa của các phương pháp huấn luyện AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác

Phi tập trung đào tạo đại diện cho một con đường tương lai mở hơn và có khả năng chống kiểm duyệt. Đặc điểm cốt lõi của nó là: nhiều nút không tin tưởng lẫn nhau thực hiện nhiệm vụ đào tạo một cách phối hợp mà không cần người điều phối trung tâm, thường thông qua giao thức để thúc đẩy việc phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực trong đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:

  • Khó khăn trong việc phân chia và tính đồng nhất thiết bị: Khó khăn trong việc phối hợp thiết bị không đồng nhất, hiệu quả phân chia nhiệm vụ thấp.
  • Nút thắt hiệu suất truyền thông: Giao tiếp mạng không ổn định, nút thắt đồng bộ độ dốc rõ rệt
  • Thiếu thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh liệu nút có thực sự tham gia vào tính toán hay không.
  • Thiếu sự phối hợp thống nhất: không có bộ điều độ trung tâm, việc phân phát nhiệm vụ và cơ chế hoàn nguyên bất thường phức tạp

Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng khả năng "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu sớm.

Học liên bang như một hình thức chuyển tiếp giữa phân phối và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại địa phương và tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến quy định về quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của đào tạo phân phối và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên điều phối đáng tin cậy, không có đặc tính hoàn toàn mở và kháng kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế truyền thông đều tương đối ôn hòa, phù hợp hơn để làm kiến trúc triển khai chuyển tiếp cho ngành công nghiệp.

Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế

Từ góc độ mô hình đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số bối cảnh, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc độ khó hợp tác lớn, nó vốn dĩ không phù hợp để hoàn thành một cách hiệu quả giữa các nút không đồng nhất và không cần tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ video cao, độ trễ thấp và băng thông cao, khó có thể phân chia và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ bị hạn chế bởi quyền riêng tư dữ liệu và hạn chế chủ quyền bị ràng buộc bởi tuân thủ pháp luật và đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác thì không có động lực tham gia từ bên ngoài. Những giới hạn này cùng nhau tạo thành những hạn chế thực tế của đào tạo phi tập trung hiện nay.

Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện rõ ràng tiềm năng ứng dụng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo hậu cần hành vi, đào tạo và gán nhãn dữ liệu theo hình thức crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác có sự tham gia của thiết bị biên. Những nhiệm vụ này thường có đặc điểm song song cao, liên kết thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.

Sự tiến hóa của mô hình đào tạo AI: từ kiểm soát tập trung đến cách mạng công nghệ hợp tác Phi tập trung

Phi tập trung đào tạo dự án kinh điển phân tích

Hiện tại, trong lĩnh vực đào tạo phi tập trung và học liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong thực hiện, Prime Intellect, Nous Research và Pluralis.ai đã đề xuất nhiều khám phá nguyên bản trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết hiện tại; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến bộ ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích công nghệ cốt lõi và cấu trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.

Prime Intellect: Người tiên phong trong mạng lưới hợp tác học tăng cường có thể xác minh được quá trình đào tạo

Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin tưởng, cho phép bất kỳ ai tham gia đào tạo và nhận phần thưởng đáng tin cậy cho đóng góp tính toán của họ. Prime Intellect mong muốn thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, mở và đầy đủ cơ chế khuyến khích.

Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính:

PRIME-RL: Kiến trúc nhiệm vụ học tăng cường phi tập trung bất đồng bộ

PRIME-RL là khung mô hình hóa và thực thi nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia bất đồng bộ. Nó sử dụng học tăng cường làm đối tượng thích ứng ưu tiên, tách biệt cấu trúc quy trình đào tạo, suy diễn và tải trọng lên, cho phép mỗi nút đào tạo hoàn thành vòng lặp nhiệm vụ độc lập tại địa phương, và hợp tác thông qua giao diện tiêu chuẩn hóa với cơ chế xác thực và tổng hợp. So với quy trình học giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có điều phối trung tâm, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ nhiều nhiệm vụ song song và tiến hóa chiến lược.

TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ

TOPLOC là cơ chế cốt lõi về khả năng xác minh đào tạo do Prime Intellect đề xuất, được sử dụng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hợp lệ dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành xác minh cấu trúc nhẹ thông qua việc phân tích "chuỗi quan sát ↔ cập nhật chiến lược" giữa các quỹ đạo nhất quán cục bộ. Nó lần đầu tiên chuyển đổi quỹ đạo hành vi trong quá trình đào tạo thành các đối tượng có thể xác minh, là đổi mới quan trọng để đạt được phân phối phần thưởng đào tạo không cần tin cậy, cung cấp lộ trình khả thi cho việc xây dựng mạng lưới đào tạo hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.

SHARDCAST: Giao thức tổng hợp và truyền tải trọng số bất đồng bộ

SHARDCAST là giao thức truyền và hợp nhất trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa cho môi trường mạng thực tế không đồng bộ, có băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút tiếp tục gửi các cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ dần dần của trọng số và sự tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và quá trình đào tạo liên tục.

OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt

OpenDiLoCo là khuôn khổ tối ưu hóa truyền thông được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đề xuất, được thiết kế chuyên biệt cho những thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên phân tán dữ liệu, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, đã tránh được chi phí truyền thông cao của đồng bộ toàn cầu, chỉ cần dựa vào các nút hàng xóm cục bộ để hoàn thành đào tạo mô hình hợp tác. Kết hợp với cập nhật không đồng bộ và cơ chế khôi phục điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng truyền thông quan trọng để xây dựng mạng lưới đào tạo phi tập trung.

PCCL: Thư viện giao tiếp hợp tác

PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI phi tập trung, nhằm giải quyết những nút thắt trong việc thích ứng của thư viện giao tiếp truyền thống trên các thiết bị khác nhau và mạng có băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và phục hồi từ điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó đã nâng cao đáng kể khả năng chịu đựng băng thông và tính tương thích thiết bị của mạng đào tạo, mở ra "km cuối" cho cơ sở hạ tầng giao tiếp của mạng đào tạo hợp tác thực sự mở và không cần niềm tin.

AI đào tạo mô hình tiến hóa: từ kiểm soát tập trung đến cuộc cách mạng công nghệ hợp tác phi tập trung

Prime Intellect khuyến khích mạng lưới và phân công vai trò:

Prime Intellect xây dựng một mạng lưới đào tạo không cần cấp phép, có thể xác minh và có cơ chế kinh tế khuyến khích, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:

  • Người khởi tạo nhiệm vụ: định nghĩa môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác minh
  • Nút huấn luyện: Thực hiện huấn luyện địa phương, gửi cập nhật trọng số và theo dõi quan sát
  • Node xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo và tham gia vào tính toán phần thưởng cũng như tổng hợp chiến lược.

Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số và phát thưởng, tạo thành một vòng khép kín khuyến khích xoay quanh "hành vi đào tạo thực".

INTELLECT-2: Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên

Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được huấn luyện thông qua sự hợp tác của các nút phi tập trung, không cần tin cậy, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua sự hợp tác của hơn 100 nút GPU không đồng nhất trải rộng trên ba châu lục, sử dụng kiến trúc hoàn toàn bất đồng bộ, thời gian huấn luyện vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác bất đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là lần đầu tiên hệ thống hóa nguyên tắc "huấn luyện tức là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu lần đầu tiên mạng lưới huấn luyện phi tập trung hiện thực hóa quá trình huấn luyện một cách mở, có tính xác thực và tạo ra vòng khép kín khuyến khích kinh tế.

Về hiệu suất, INTELLECT-2 được đào tạo dựa trên QwQ-32B và đã thực hiện đào tạo RL chuyên biệt về mã và toán học, đạt đến trình độ tiên tiến của các mô hình RL tinh chỉnh mã nguồn mở hiện tại. Mặc dù chưa vượt qua các mô hình mã nguồn đóng như GPT-4 hoặc Gemini, nhưng ý nghĩa thực sự của nó.

PRIME0.69%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 5
  • Chia sẻ
Bình luận
0/400
Web3Educatorvip
· 1giờ trước
*điều chỉnh kính tưởng tượng* về cơ bản chỉ là web3 làm gián đoạn AI, như đã dự đoán trong bài báo năm 2021 của tôi...
Xem bản gốcTrả lời0
RektButStillHerevip
· 08-07 01:21
Ôi không thể tin được, từ tập trung đến phi tập trung, công nghệ chỉ là mua hộp mà quên mất viên ngọc.
Xem bản gốcTrả lời0
ZKProofEnthusiastvip
· 08-06 04:17
Cũng giống như lý tưởng web3, AI Phi tập trung hóa.
Xem bản gốcTrả lời0
P2ENotWorkingvip
· 08-06 04:10
Làm như vậy thì không đến lượt các xưởng nhỏ chơi, thật là bực mình.
Xem bản gốcTrả lời0
AirdropHunter9000vip
· 08-06 04:08
chuyên nghiệp nói đúng 训练费用真高
Xem bản gốcTrả lời0
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)