Загрузка PHP с лимитом в 2 ТБ

1

Использование PHP/Apache и теперь сталкиваются с проблемой в Linux Ubuntu, где загружаются мои приложения для веб-приложений, всего около 2 тб.

Кто-нибудь имеет опыт программирования своих загрузок PHP для использования нескольких разделов? Может быть, заполнение разделов круговым методом эффективно дает больше памяти?

SAN, который я использую, имеет более 20 Тбайт памяти, но я фактически ограничен только 10% этого!

Любая помощь очень ценится!

Теги:
file
limit
storage
partition

2 ответа

0
Лучший ответ

PHP передаст ОС для обработки деталей и сообщает о любых ошибках.

Я предполагаю, что проблема заключается не в том, что какой-либо один файл больше 2 ТБ. но у вас есть тысячи файлов, которые занимают весь раздел, на котором работает ваш веб-сервер.

Если вам нужно использовать несколько разделов, вы должны разделить свою папку "uploads", используя что-то, что будет приятно разбиваться в соответствии с вашими требованиями.

Возможно, вам захочется узнать, где находится файл без необходимости траления всего дерева загрузок

например, вы можете разделить на что-то вроде:
- дата загрузки/год/месяц,
- начальная буква файла или
- round (user-id/100)

Затем вы можете монтировать различные разделы в пределах загрузок. У вас может быть папка с именем uploads и внутри которой вы можете монтировать другие разделы

 mount /dev/sdb2 /var/www/html/myapp/uploads/2014   
 mount /dev/sdb3 /var/www/html/myapp/uploads/2015

Первоначально вам может потребоваться перенести файлы из вашего старого местоположения в эти новые разделы, чтобы более старые загрузки были доступны по новой схеме.

Для php это прозрачно, я делал подобные вещи даже с установленными smb-пакетами. Вы должны убедиться, что права доступа/пользователей настроены так, чтобы PHP мог писать в эти папки.

  • 0
    Я скоро попробую - мне это нравится. Просто исследую, существуют ли какие-либо инструменты или методы уровня операционной системы, которые я мог бы использовать в первую очередь.
0

Вы можете выполнить загрузку. Есть библиотеки, которые могут обрабатывать его на стороне клиента для вас.

http://www.plupload.com/index.php

  • 0
    Хорошая идея, но это пугает меня - что, если один из разделов 2Tb станет поврежденным. Думаю, я бы потерял все файлы, если бы они были разбиты на части.
  • 0
    Вы просто спрашиваете о проблеме, если используете эту «идею» в критически важном приложении. Вам следует использовать сервис типа S3 для хранения этих больших файлов IMHO или RAID на этих дисках. -JH
Показать ещё 1 комментарий

Ещё вопросы

Сообщество Overcoder
Наверх
Меню