Vào giữa tháng trước, tôi để ý thấy rằng trang Wikipedia cần tới 15-20 giây ( và thậm chí còn lâu hơn) để load được 1 trang. Không chỉ Wikipedia, CNN hay ngay đển cả trang tìm kiếm lớn nhất hiện nay là Google cũng mất một khoản thời gian tương tự mới có thể load được trang. Có điều gì đó không đúng lắm ở đây.
Để giải thích rõ hơn về vấn đề tôi lấy ví dụ về việc truy cập internet từ vệ tinh, vận tốc ánh sáng sẽ trở thành một yếu tố quan trọng quyết định ping. Nói cách khác, nếu nó bị ngăn chặn bởi nhiều tầng lớp khác nhau thì độ trễ ping là khoảng 506 mili giây. Đó là chưa kể việc nó phải đi qua nhiều cửa và các đường dây khác nhau.
Nói cách khác, bạn đang mất tới một nửa gói dữ liệu của mình (hoặc nhiều hơn) và các gói không bị mất thì lại có thời gian chờ tới khoảng hai phần ba giây (hoặc nhiều hơn).
Như vậy cũng đủ lý do đủ để thiết lập một local caching server, để tăng tốc các trang web và giảm mức sử dụng băng thông. Tuy vậy, HTTPS, theo thiết kế vốn để ngăn chặn các cuộc tấn công trung gian, sẽ hoàn toàn phá vỡ local caching server.
Nói cách khác, chính động lực thúc đẩy mọi trang web tới HTTPS lại tạo ra nghịch lý đẩy web ra xa khỏi hàng tỷ người dùng. Tôi từng nghe một câu slogan như sau “hãy đầu tư vào HTTPS để làm cho nó nhanh hơn, rẻ hơn và dễ dàng hơn cho mọi người.”
Nếu bạn định nghĩa “mọi người” là những người có quyền truy cập với dung lượng đồ sộ thì điều đó chắc chắn đúng. Nhưng đối với những người ngoài tầm với thì mọi lời tuyên bố đó đều sai.
Để làm tình huống tệ hơn, chúng ta thường bị hạn chế bởi những hệ điều hành cũ vốn thường dùng để chạy các trình duyệt cũ hơn như Windows XP, Windows 95. Đó là những người có nhiều khả năng sẽ bị ảnh hưởng khá tiêu cực bởi việc phát triển của internet vệ tinh hoặc các dịch vụ tương tự.
Tôi nghĩ HTTPS có thể là một điều tích cực cho chúng ta. Nhưng thật sự nó vẫn tồn tại những điểm yếu mà tôi đã nêu ra ở trên. Và điều đáng lo hơn là đại đa số chúng ta vẫn chưa hề nhận ra chúng.
Nguồn: Sưu tầm từ internet via thenextweb