Как кэшировать динамический сайт с 1890 000 страниц и размещать их на AWS статически

0

Я построил динамический сайт, который предоставляет открытые медицинские данные в удобном для чтения формате с графиками. Сайт размещен на ручном сервере в моем гараже и работает на подключении Comcast. Он обслуживал более 3 000 000 человек, так как он появился в Интернете, и мне действительно нужно найти лучший способ обеспечить его, поскольку он становится очень напряженным, пытаясь сохранить его и продолжать его развивать. Он построен на PHP и JS с Apache и на данный момент имеет Oracle. Сами данные обновляются только ежеквартально, поэтому, если бы я мог разместить сайт статически каким-то образом на AWS, он мог бы справиться с тем вниманием, которое он получал. Я уже многому научился о правильном кэшировании от других вопросов, но мой случай кажется большим прыжком, чем большинство. У кого-нибудь есть опыт с этим типом движения?

Благодарю! - ОКРУГ КОЛУМБИЯ

  • 2
    разместить контент на s3, кеш с облачным фронтом или akamai или [вставить cdn сюда]? Вы можете задать более конкретный вопрос.
Теги:
amazon-web-services
caching

1 ответ

1

Самый простой путь - просто проложить все через облачный. Cloudfront может использовать вашу текущую систему в качестве источника и кэшировать ваш контент по всему миру на своих конечных точках.

Вам нужно будет настроить параметры кэширования, чтобы отображать расписание обновлений, но если ваш контент не является действительно динамичным, это, вероятно, самый простой способ.

Конечно, есть и другие варианты, но это зависит от большей информации.

Ещё вопросы

Сообщество Overcoder
Наверх
Меню