Trong máy tính hiện đại, bất kể đó là ai, từ viết tắt được sử dụng cho hầu hết mọi thứ… CPU, GPU, APU… và một trong những từ viết tắt này bắt đầu được sử dụng ngày càng nhiều là I PU , là chữ viết tắt của Đơn vị xử lý tình báo hoặc đơn vị xử lý tình báo. Trong bài viết này, chúng tôi sẽ cho bạn biết IPU là gì và nó dùng để làm gì, ngoài việc cho bạn biết nó được sử dụng trong các trường hợp nào.
Mặc dù nhiều tên được “đặt ra” bởi chức năng được thực hiện bởi sản phẩm được đề cập, nhưng cuối cùng, ai tạo ra một loại thiết bị mới sẽ chọn tên được đặt, nhưng một khi tên đã nói được thiết lập và khi nào nó bắt đầu được sử dụng như hình thức tổng quát là khi nó trở nên quan trọng. Trong trường hợp của IPU, chúng tôi đang phải đối mặt với một sản phẩm chính xác là một trong những sản phẩm đã có tên do chức năng mà chúng thực hiện, và mặc dù bạn chắc chắn sẽ biết các bức ảnh sẽ đi đâu khi bạn biết các từ viết tắt có nghĩa là gì, chúng ta sẽ đi vào vấn đề.
IPU là gì và nó hoạt động như thế nào?
Như chúng tôi đã đề cập trước đây, IPU là từ viết tắt của Intelligence Processing Unit hoặc đơn vị xử lý thông minh, như tên gọi của nó được thiết kế cho trí tuệ nhân tạo và cụ thể hơn, nó là một bộ xử lý được thiết kế cho mục đích này. Cũng giống như GPU giống như một CPU nhưng được thiết kế cho đồ họa, IPU là một CPU được thiết kế cho trí tuệ nhân tạo.
Do đó, IPU là một bộ xử lý được thiết kế để xử lý song song (nghĩa là nó được thiết kế để một số hoạt động đồng thời) với mục đích tăng tốc các hệ thống Trí tuệ nhân tạo. Kể từ thế hệ IPU đầu tiên (Colossus), nhiều tiến bộ trong lĩnh vực điện toán đã được phát triển và trong thế hệ thứ hai, có thể tăng hiệu suất lên 800%.
Những người tạo ra nó cho rằng trên thực tế, IPU là bộ xử lý phức tạp nhất được phát triển cho đến nay, hơn nhiều so với các bộ xử lý PC hoặc máy chủ mà chúng ta biết.
Như bạn có thể thấy trong sơ đồ trên, tương ứng với Colossus MK2 GC200 IPU, mỗi “bộ xử lý” kết hợp tổng cộng 1472 IPU độc lập, mỗi IPU có một lõi và bộ nhớ chuyên dụng riêng, vì vậy trong trường hợp này chúng ta đang nói về một bộ xử lý với 1472 lõi, tổng cộng có khả năng tạo ra 8832 luồng xử lý song song, hoặc giống nhau, mỗi lõi có sáu luồng xử lý hay nói cách khác, mỗi lõi có khả năng thực hiện sáu lệnh đồng thời.
900 MB bộ nhớ được tích hợp cho mỗi IPU với băng thông không dưới 47.5 TB / s và nó cũng sử dụng giao diện PCI-Express 4.0 x16 để xử lý băng thông áp đảo này.
IPU để làm gì?
Tất cả năng lực quy trình khổng lồ này rõ ràng được thiết kế như chúng ta đã nói cho các hệ thống Trí tuệ nhân tạo, tức là chúng được tích hợp vào các hệ thống cụ thể và cho một mục đích cụ thể. Nhiều đến mức các IPU này thực sự được tích hợp dưới dạng bộ đồng xử lý, vì chúng không thể hoạt động tự động (giống như GPU không thể hoạt động như một CPU vì nó không có các tập lệnh cần thiết).
Và đó là các bộ xử lý này có định dạng thẻ mở rộng hoặc thẻ tăng tốc và như chúng tôi đã đề cập trước khi chúng được kết nối với một cổng trên bo mạch chủ thông qua ổ cắm PCI-Express 4.0 x16.
Do đó, việc sử dụng nó chính xác là để tăng tốc các hệ thống Trí tuệ nhân tạo với các lõi dành riêng cho nó, và hiện tại chúng vô dụng cho bất cứ thứ gì khác. Tuy nhiên, như bạn đã biết, toàn bộ chủ đề về Học sâu, Học máy và Trí tuệ nhân tạo không chỉ là thứ tự của ngày mà nó ngày càng có xu hướng gia tăng, vì vậy mỗi khi chúng ta tìm kiếm thuật ngữ IPU thường xuyên hơn. .