Đại học Osaka phát triển một thiết bị máy tính FPGA để tối ưu hóa tối đa các nhiệm vụ AI
Các nhà nghiên cứu của Đại học Osaka đã chế tạo một thiết bị mới có thể được tùy chỉnh bởi người dùng để đạt hiệu quả tối đa trong các ứng dụng AI.
Thiết bị tính toán, được chế tạo với mảng cổng lập trình trường (FPGA) , làm tăng mật độ mạch lên hệ số mười hai khi so sánh với phần cứng có thể chạy lại hiện tại. Nó cũng giảm tiêu thụ năng lượng lên đến 80%. Người ta cho rằng những tiến bộ này có thể dẫn đến các giải pháp AI linh hoạt hơn giúp khuếch đại hiệu suất đồng thời cắt giảm mức sử dụng năng lượng.
So sánh về kích thước và mật độ tích hợp giữa Via-Switch FPGA do Đại học Osaka phát triển và SRAM FPGA thông thường. Hình ảnh được sử dụng do IEEE cung cấp. Hội nghị quốc tế về mạch thể rắn .
Tại sao cần có hiệu quả
AI đang nhanh chóng có tác động đáng chú ý hơn đến thế giới của chúng ta. Với sự ra đời của 5G, Internet of Things và những suy nghĩ rằng mạng di động thế hệ thứ sáu (6G) kế nhiệm của 5G sẽ gần như hoàn toàn được cung cấp bởi AI, ngày càng có nhiều nhu cầu phát triển các giải pháp điện toán không chỉ có thể theo kịp công nghệ nhưng cũng thích ứng với các ứng dụng và quy trình AI khác nhau. Khi làm như vậy, nghiên cứu sẽ góp phần giải quyết một trong những vấn đề cấp bách nhất hiện nay - tình trạng khẩn cấp về khí hậu (hoặc, đối với những người hoài nghi, biến đổi khí hậu).
Đào tạo trí tuệ nhân tạo là một quá trình chuyên sâu, sử dụng rất nhiều năng lượng. Các ước tính gần đây cho thấy rằng việc đào tạo một phần trí tuệ nhân tạo có thể sử dụng tới 284 tấn carbon dioxide - tương đương với năm lần lượng khí thải trong đời của một chiếc ô tô trung bình.
Nó không phải là ví dụ về các AI được đào tạo là rất ít và xa; họ ở khắp mọi nơi. Google Dịch, trình tạo văn bản GPT-2 của OpenAI, các ứng dụng chia sẻ xe như Uber, bộ lọc thư rác và các thiết bị gia đình thông minh như Nest và Ring đều dựa nhiều vào AI và học sâu. Và mặc dù việc Amazon đầu tư vào các trang trại năng lượng mặt trời và gió và Google thiết lập các thỏa thuận dài hạn với các nhà cung cấp năng lượng tái tạo là những bước đi đúng hướng, nhưng điều đó vẫn chưa đủ.
Mặt cắt được kết nối với nhau của FPGA Qua-Switch. Hình ảnh được sử dụng do IEEE cung cấp. Hội nghị quốc tế về mạch thể rắn .
Tối ưu hóa vi mạch máy tính để xử lý AI hiệu quả
Vì vậy, các thuật toán phức tạp đòi hỏi rất nhiều sức mạnh tính toán. Điều này có nghĩa là tiêu thụ năng lượng cao hơn và do đó, dấu chân carbon lớn hơn. Tuy nhiên, nếu các hệ thống có thể được tua lại để tối ưu hóa mạch máy tính cho mỗi tác vụ AI nhất định, chúng tôi sẽ đạt được mức hiệu quả năng lượng lớn hơn nhiều.
Mặc dù người dùng thông thường có thể nghĩ về "mạch điện" là các bóng bán dẫn vật lý và cổng logic được tìm thấy trong bộ xử lý - được cố định - FPGA là các phần tử logic chuyên dụng có thể được cuộn lại nhanh chóng (hoặc "trong trường" - sau đó "trường- lập trình được ”) bởi người dùng cho các ứng dụng động và tùy chỉnh. Và đây chính xác là những gì các nhà nghiên cứu Osaka đã làm .
Nhóm nghiên cứu đã sử dụng “công tắc chuyển mạch” không bay hơi, luôn kết nối cho đến khi người vận hành quyết định rằng chúng cần được cấu hình lại. Bằng cách sử dụng một phương pháp chế tạo nano mới, nhóm đã có thể đóng gói các phần tử nhiều hơn mười hai lần vào một bố cục “xà ngang” dạng lưới, giảm khoảng cách mà các tín hiệu điện tử phải truyền đi và do đó tiêu thụ ít điện năng hơn - ít hơn tới 80%.
Masanori Hashimoto, tác giả chính của bài nghiên cứu cho biết: "Hệ thống của chúng tôi dựa trên mảng cổng có thể lập trình trường có chu kỳ thiết kế rất nhanh. Nó có thể được lập trình lại hàng ngày nếu muốn để có được sức mạnh tính toán cao nhất cho mỗi ứng dụng AI mới" .
Bằng cách sử dụng thiết bị chuyển mạch thông qua, nhóm nghiên cứu cũng loại bỏ sự cần thiết phải bao gồm vùng silicon lập trình cần thiết cho các thiết bị FPGA khác.
Không có nhận xét nào