Windows

Những vấn đề mà Facebook đã buộc phải vật lộn với "sớm hơn nhiều so với ngành công nghiệp rộng hơn", bao gồm cả việc tìm kiếm tìm ra cách hiệu quả hơn để xử lý hành vi của người dùng trên trang web, cách truy cập và hợp nhất các loại dữ liệu khác nhau trên nhiều trung tâm dữ liệu của Facebook và tạo ra các hệ thống phần mềm nguồn mở mới để xử lý dữ liệu đó, Ra Theo Murthy, người quản lý cơ sở hạ tầng phân tích của Facebook,

SEO FACEBOOK - Tối Ưu Hóa Fanpage Và Bài Post

SEO FACEBOOK - Tối Ưu Hóa Fanpage Và Bài Post
Anonim

[Đọc thêm: Các dịch vụ truyền hình trực tuyến tốt nhất]

"Nhưng nó đi sâu hơn thế này", ông nói. công việc hậu trường liên quan đến cơ sở hạ tầng phân tích của Facebook, được thiết kế để đẩy nhanh phát triển sản phẩm và cải thiện trải nghiệm người dùng thông qua phân tích sâu của tất cả dữ liệu có sẵn, cho dù nó bao gồm các hành động mà người dùng thực hiện trên trang web như đăng cập nhật trạng thái hay Các ứng dụng mà họ sử dụng trong Facebook trên các thiết bị khác nhau.

Facebook hiện đang sử dụng một số hệ thống phần mềm nguồn mở khác nhau được gọi là Hadoop, Corona và Prism để xử lý và phân tích dữ liệu của công ty. nhanh hơn và hiệu quả hơn trong sáu đến mười hai tháng tới, Murthy nói.

Nhiều thách thức của công ty liên quan đến những gì Facebook gọi là kho dữ liệu của nó, kết hợp dữ liệu từ nhiều nguồn vào cơ sở dữ liệu. trong tổng hợp, chẳng hạn như bằng cách đưa ra báo cáo hàng ngày về số lượng ảnh đã được gắn thẻ ở một quốc gia cụ thể hoặc xem có bao nhiêu người dùng ở một khu vực nhất định đã tương tác với các trang được đề xuất cho họ. được thiết kế để tối ưu hóa trải nghiệm người dùng và tìm hiểu những gì người dùng thích và không thích, nhưng nó cũng đang trở nên bị đánh thuế nhiều hơn khi Facebook có thể truy cập ngày càng nhiều dữ liệu về người dùng của nó, Murthy nói. Hiện tại, kho Facebook chiếm 500 terabyte dữ liệu mới mỗi ngày hoặc 500.000 gigabyte. Nhà kho đã phát triển gần 4000 lần trong bốn năm qua, "trước sự phát triển của người dùng Facebook", Murthy nói.

Để giải quyết những vấn đề này, Facebook đã phát triển hệ thống phần mềm Prism, được thiết kế để thực hiện các chức năng phân tích chính trên toàn bộ các trung tâm dữ liệu của công ty trên toàn thế giới, và phân chia các phân tích thành "các khối", Murthy nói. Bằng cách đó, thực hiện một phân tích trên, nói rằng, một số số liệu liên quan đến nguồn tin tức của người dùng sẽ không làm tắc nghẽn nhà kho nói chung.

"Chúng tôi đang ngày càng suy nghĩ về cách nắm bắt dữ liệu này", ông nói. Murthy cho biết: “Công ty cũng đang làm việc trên một hệ thống có cách tiếp cận hoàn toàn khác để truy vấn kho hàng để đưa ra thời gian phản hồi trong vòng vài giây, một khu vực khác mà Facebook đang liên tục xem xét cải thiện là“ cơ sở hạ tầng giao dịch ” ”Xử lý việc xử lý dữ liệu cơ bản, hàng ngày, chẳng hạn như lượt thích, nhận xét và cập nhật trạng thái để giữ cho mạng xã hội chạy trơn tru. Một số câu hỏi mà các kỹ sư và nhà phân tích của công ty đang xem xét bao gồm tìm hiểu cách dự báo sự tăng trưởng thực tế trong loại dữ liệu này và bao nhiêu máy tính mà Facebook thực sự cần cho nó, Murthy nói."Chúng ta có thể dự đoán nó sẽ diễn ra sau 6 tháng nữa không?", Ông nói.

Trong khi đó, Facebook cũng tham gia vào một nỗ lực dài hạn để làm cho các máy chủ vật lý của nó hiệu quả hơn. Công ty bắt đầu dự án Open Compute Project vào năm 2011, với mục tiêu thiết kế các máy chủ được mô-đun hóa cho phép khách hàng kiểm soát tốt hơn mạng, bộ nhớ, nguồn điện và các thành phần khác đi vào máy chủ của họ. Nó đã được mở rộng để kết hợp các bộ xử lý ARM vào tháng Giêng.