Examples of using Infiniband in Vietnamese and their translations into English
{-}
-
Colloquial
-
Ecclesiastic
-
Computer
InfiniBand:( tốc độ rất cao, tương đượng với tốc độ của PCI).
Thêm tám cổng Ethernet hoặc Infiniband có sẵn thông qua khay PCIe.
Mục đích của nó là cung cấpcác SCSI Target thông qua SAN tương thích( Fibre Channel, InfiniBand, iSCSI, FCoE).
Các ví dụ khác, như InfiniBand và I²C được thiết kế từ đầu để được sử dụng cả hai nội bộ và bên ngoài.
Các bus Thế hệ thứ ba được nổi lên ở thị trường vào khoảng năm 2001,bao gồm HyperTransport và InfiniBand.
QSFP hỗ trợ chuẩn Ethernet, Fibre Channel, InfiniBand và SONET/ SDH với tốc độ dữ liệu khác nhau.
Tài liệu QSFP ban đầu đã chỉ định bốn kênh mang Gigabit Ethernet, 4GFC( FiberChannel)hoặc DDR InfiniBand.
Hệ thống mạng của Mellanox InfiniBand FDR 56GB đảm bảo giao tiếp nhanh chóng giữa các thành phần của cụm siêu máy tính Bura.
Các bus Thế hệ thứ ba được nổi lên ở thị trường vào khoảng năm 2001,bao gồm HyperTransport và InfiniBand.
Một khách hàng có thể kết nối với một máy chủ với giao thứctùy chỉnh qua TCP/ IP, Infiniband hoặc SDP và lưu trữ các tệp vào máy chủ GlusterFs.
QSFP+ là một sự tiến hóa của QSFP để hỗ trợ bốn 10 Gbit/ giây hoặc một liên kết 40 Gbit/ giây mang 40 Gigabit Ethernet,10GFC Fiber Channel hoặc QDR InfiniBand.
Để tạo nhóm,một công tắc giám đốc EDR InfiniBand của cổng 216 được sử dụng để tạo một tầng khác trong mạng cây béo và ghép chéo ba bộ giá đỡ với nhau.
Các sản phẩm cũng rất linh hoạt, và có khả năng hỗ trợ nhiều giao thức, chẳng hạn như iSCSI,Fibre Channel hoặc Infiniband, trong cả hai tập tin hoặc truyền dữ liệu khối.
Mỗi máy chủ đó bao gồm 2 bộ vi xử lý IBM Power9 22 nhân cũng như 6 bộ tăng tốc xử lí đồ họa NVIDIA Tesla V100 được kết nối với dual-rail Mellanox EDR 100Gb/ s InfiniBand.
IBM là nhà thầu chung cho Summit và công ty đã hợp tác với Nvidia,RedHat và InfiniBand, chuyên gia mạng Mellanox về việc cung cấp hệ thống siêu máy tính mới này./.
InfiniBand hợp lý cho những tác vụ tính toán lớn, đòi hỏi hàng chục, hàng trăm hay thậm chí hàng ngàn server hoặc các trạm làm việc trên mạng cùng làm việc với nhau để giải quyết một vấn đề duy nhất.
Công ty cũng đã thực hiện các bước khác để xây dựng các khả năng siêu máy tính của mình,bao gồm mua các sản phẩm InfiniBand của QLogic và các tài sản mạng của Cray vào các nhà sản xuất siêu máy.
Infiniband( do một hiệp hội các công ty máy tính và lưu trữ phát triển) cung cấp dải tần lớn hơn các công nghệ kết nối khác trên thị trường như Miranet, đồng thời chi phí cũng thấp hơn.
Để giải quyết những vấn đề này, Mellanox cung cấp các giải pháp đầu cuối hoàn chỉnh( silicon, adapter cards, hệ thống chuyển mạch, cáp và phần mềm)hỗ trợ công nghệ mạng InfiniBand và Ethernet.
HealthShare NSW hiện đang sử dụng Oracle lớp doanh nghiệp Sun ZFS lưu trữ trong trung tâm dữ liệu gia dụng củanó, mà làm cho việc sử dụng InfiniBand để sao lưu và phục hồi cơ sở dữ liệu và ứng dụng của nó.
Để giải quyết những vấn đề này, Mellanox cung cấp các giải pháp đầu cuối hoàn chỉnh( silicon, adapter cards, hệ thống chuyển mạch, cáp và phần mềm)hỗ trợ công nghệ mạng InfiniBand và Ethernet.
QSFP28 100G cung cấp bốn kênh tín hiệu khác biệt tốc độ cao với tốc độ truyền dữ liệu từ 25 Gbps đến 40 Gbps, để thu tổng cộng 100 Gbps Ethernet( 4 × 25 Gbps)và 100 Gbps 4X InfiniBand Enhanced Data Rate( EDR).
Trên mạng LAN, vì khoảng cách kết nối nhỏ hơn nhiều, bạn có thể trang bị cho tất cả các máy tính với 10 Gbps card mạng và truyền tải dữ liệu giữa chúng với tốc độ ngoạn mục, thậm chí đạt tới 100 Gbps trênphần cứng mạng đặc biệt như Infiniband.
Để giải quyết những vấn đề này, Mellanox cung cấp các giải pháp đầu cuối hoàn chỉnh( silicon, adapter cards, hệ thống chuyển mạch, cáp và phần mềm)hỗ trợ công nghệ mạng InfiniBand và Ethernet.
Trên mạng LAN, vì khoảng cách kết nối nhỏ hơn nhiều, bạn có thể trang bị cho tất cả các máy tính với 10 Gbps card mạng và truyền tải dữ liệu giữa chúng với tốc độ ngoạnmục, thậm chí đạt tới 100 Gbps trên phần cứng mạng đặc biệt như Infiniband.
Điều này bổ sung thêm tám PCIe interface, tiếp tục được lắp đầy với Mellanox adapter có thể được sử dụng để kết nối với các hệ thống clustered storage bằng cáchsử dụng các transceiver 10GbE Ethernet hoặc InfiniBand EDR 100.
Điều này bổ sung cập nhật thêm tám PCIe interface, tiếp tục được lắp đầy với Mellanox adapter rất có thể được dùng để kết nối với các khối hệ thống clustered storage bằng phương phápsử dụng các transceiver 10GbE Ethernet hoặc InfiniBand EDR 100.