SEO FACEBOOK - Tối Ưu Hóa Fanpage Và Bài Post
[Đọc thêm: Các dịch vụ truyền hình trực tuyến tốt nhất]
"Nhưng nó đi sâu hơn thế này", ông nói. công việc hậu trường liên quan đến cơ sở hạ tầng phân tích của Facebook, được thiết kế để đẩy nhanh phát triển sản phẩm và cải thiện trải nghiệm người dùng thông qua phân tích sâu của tất cả dữ liệu có sẵn, cho dù nó bao gồm các hành động mà người dùng thực hiện trên trang web như đăng cập nhật trạng thái hay Các ứng dụng mà họ sử dụng trong Facebook trên các thiết bị khác nhau.
Facebook hiện đang sử dụng một số hệ thống phần mềm nguồn mở khác nhau được gọi là Hadoop, Corona và Prism để xử lý và phân tích dữ liệu của công ty. nhanh hơn và hiệu quả hơn trong sáu đến mười hai tháng tới, Murthy nói.
Nhiều thách thức của công ty liên quan đến những gì Facebook gọi là kho dữ liệu của nó, kết hợp dữ liệu từ nhiều nguồn vào cơ sở dữ liệu. trong tổng hợp, chẳng hạn như bằng cách đưa ra báo cáo hàng ngày về số lượng ảnh đã được gắn thẻ ở một quốc gia cụ thể hoặc xem có bao nhiêu người dùng ở một khu vực nhất định đã tương tác với các trang được đề xuất cho họ. được thiết kế để tối ưu hóa trải nghiệm người dùng và tìm hiểu những gì người dùng thích và không thích, nhưng nó cũng đang trở nên bị đánh thuế nhiều hơn khi Facebook có thể truy cập ngày càng nhiều dữ liệu về người dùng của nó, Murthy nói. Hiện tại, kho Facebook chiếm 500 terabyte dữ liệu mới mỗi ngày hoặc 500.000 gigabyte. Nhà kho đã phát triển gần 4000 lần trong bốn năm qua, "trước sự phát triển của người dùng Facebook", Murthy nói.Để giải quyết những vấn đề này, Facebook đã phát triển hệ thống phần mềm Prism, được thiết kế để thực hiện các chức năng phân tích chính trên toàn bộ các trung tâm dữ liệu của công ty trên toàn thế giới, và phân chia các phân tích thành "các khối", Murthy nói. Bằng cách đó, thực hiện một phân tích trên, nói rằng, một số số liệu liên quan đến nguồn tin tức của người dùng sẽ không làm tắc nghẽn nhà kho nói chung.
"Chúng tôi đang ngày càng suy nghĩ về cách nắm bắt dữ liệu này", ông nói. Murthy cho biết: “Công ty cũng đang làm việc trên một hệ thống có cách tiếp cận hoàn toàn khác để truy vấn kho hàng để đưa ra thời gian phản hồi trong vòng vài giây, một khu vực khác mà Facebook đang liên tục xem xét cải thiện là“ cơ sở hạ tầng giao dịch ” ”Xử lý việc xử lý dữ liệu cơ bản, hàng ngày, chẳng hạn như lượt thích, nhận xét và cập nhật trạng thái để giữ cho mạng xã hội chạy trơn tru. Một số câu hỏi mà các kỹ sư và nhà phân tích của công ty đang xem xét bao gồm tìm hiểu cách dự báo sự tăng trưởng thực tế trong loại dữ liệu này và bao nhiêu máy tính mà Facebook thực sự cần cho nó, Murthy nói."Chúng ta có thể dự đoán nó sẽ diễn ra sau 6 tháng nữa không?", Ông nói.
Trong khi đó, Facebook cũng tham gia vào một nỗ lực dài hạn để làm cho các máy chủ vật lý của nó hiệu quả hơn. Công ty bắt đầu dự án Open Compute Project vào năm 2011, với mục tiêu thiết kế các máy chủ được mô-đun hóa cho phép khách hàng kiểm soát tốt hơn mạng, bộ nhớ, nguồn điện và các thành phần khác đi vào máy chủ của họ. Nó đã được mở rộng để kết hợp các bộ xử lý ARM vào tháng Giêng.
Một số nhà quan sát ngành công nghiệp đã suy đoán về việc sáp nhập các kết hợp khác nhau của các nền tảng mã nguồn mở này, mặc dù người phát ngôn từ các nhóm không công nhận bất kỳ cuộc thảo luận nào với điều đó Cuối cùng, nếu các nền tảng mã nguồn mở hợp nhất thành một, nó sẽ tham gia cùng nhiều hệ điều hành di động khác bao gồm Windows Mobile của Microsoft, phần mềm của Apple chạy iPhone cũng như nhiều hệ điều hành độc quyền khác chạy hệ điều hành từ trung bình đến thấp, điện thoại cuối cùng.

Hệ điều hành nào giành chiến thắng cuối cùng có thể được quyết định bởi các nhà khai thác di động, không phải người dùng cuối. Một số nhà khai thác, như Vodafone ở châu Âu, cho biết họ dự định chỉ bán điện thoại chạy hai hoặc ba hệ điều hành.
Các doanh nghiệp lớn đang ngày càng sử dụng WDM (wavelength- phân chia bộ phận), trong đó một chùm ánh sáng có thể được chia thành các màu khác nhau, hoặc bước sóng, với một dòng dữ liệu khác nhau được gửi đi qua mỗi một xung ánh sáng. WDM hiệu quả hơn là gửi điện tử qua dây, và nó cung cấp tốc độ lên đến 40Gbps mỗi bước sóng, với 100Gbps trên đường. Các công ty thường cho thuê một bước sóng từ một tàu sân bay sở hữu chất xơ. Bước sóng đó trở thành môi trường vật lý cho kết nối băng thông rộng,

[Xem thêm: Hộp NAS tốt nhất cho truyền thông và sao lưu phương tiện truyền thông]
Hewlett-Packard nghĩ rằng nó có thể xây dựng các trung tâm dữ liệu nhanh hơn và rẻ hơn bằng cách sử dụng các thành phần chuẩn được xây dựng sẵn trên trang web theo kiểu "giống Lego". Thứ ba, bao gồm bốn trung tâm dữ liệu lớn, hoặc góc phần tư, được xây dựng xung quanh một tòa nhà hoạt động ở trung tâm. Nó được xây dựng từ các bộ phận kim loại tấm đúc sẵn, và các góc phần tư, mỗi phần khoảng 6.000 feet vuông, có thể được thêm vào cùng một lúc khi nhu cầu năng lực của công ty tăng lên.

Đó Là một sự khởi đầu lớn từ các trung tâm dữ liệu vữa và gạch truyền thống. được thiết kế trên cơ sở tùy chỉnh và mất hơn một năm để xây dựng. Sử dụng các thiết kế tiêu chuẩn và các thành phần được chế tạo bởi nhà máy, HP cho biết nó có thể giảm chi phí xây dựng xuống một nửa và có được một trung tâm dữ liệu mới và hoạt động trong 4 đến 6 tháng.