Car-tech

Amazon giới thiệu Cluster Computing cho các ứng dụng HPC

Tiếp cận thực hành với BigData - phần 1

Tiếp cận thực hành với BigData - phần 1
Anonim

Amazon Web Services cho biết dịch vụ điện toán cụm mới nhất của họ, được công bố hôm thứ ba, có thể cung cấp kết quả tương tự như cơ sở hạ tầng được xây dựng tùy chỉnh cho các ứng dụng hiệu suất cao tại các tổ chức không muốn tự xây dựng., được gọi là Cluster Compute Instances cho cơ sở hạ tầng điện toán đám mây EC2 của Amazon, có thể cung cấp tới gấp 10 lần thông lượng mạng của các loại cá thể hiện tại trên dịch vụ EC2 tùy thuộc vào mẫu sử dụng, công ty cho biết. chẳng hạn như phân tích chuỗi gen, thiết kế xe và mô hình tài chính. Nhưng Amazon cho biết khách hàng của họ đã yêu cầu hiệu năng mạng tốt hơn.

[Đọc thêm: Các hộp NAS tốt nhất để sao lưu và sao lưu trực tuyến]

Dịch vụ này phù hợp với các quy trình hoặc ứng dụng song song được kết hợp chặt chẽ với hiệu suất mạng sử dụng nút- giao tiếp với nút, thường là các ứng dụng tính toán hiệu suất cao, Amazon nói. Các thể hiện Cluster Compute có thể được trả theo từng giờ.

Kiến trúc bộ vi xử lý cụ thể được bao gồm trong Cluster Compute Instances, cho phép các nhà phát triển tinh chỉnh các ứng dụng của họ bằng cách biên dịch chúng cho các bộ vi xử lý cụ thể. Thông tin trên trang web của Amazon Web Services

Theo thông số kỹ thuật, Amazon cho biết Cluster Compute Quadruple Extra Large của nó là một nền tảng 64 bit với bộ nhớ 23GB, dung lượng lưu trữ 1690GB và hiệu suất đầu vào / đầu ra 10 gigabit ethernet. Nó bao gồm 33.5 đơn vị tính toán EC2.

Giới hạn sử dụng mặc định cho kiểu thể hiện Cluster Compute là tám trường hợp, hoặc 64 lõi, mặc dù khách hàng có thể yêu cầu thêm.

Amazon đã thử nghiệm Cluster Computer Instances với National Energy Research Trung tâm Tin học khoa học (NERSC) tại Phòng thí nghiệm Quốc gia Lawrence Berkeley. Phòng thí nghiệm nhận thấy các ứng dụng HPC của họ chạy nhanh gấp 8,5 lần so với các kiểu cá thể trước đây của Amazon EC2, theo một bản tin của Amazon.

Gửi lời khuyên và bình luận cho [email protected]