Кто-нибудь когда-нибудь пытался обновить старую базу данных Беркли, которая должна быть выгружена через db_dump185?
Когда я пытаюсь сбросить базу данных, содержащую комментарии с веб-сайта, следующим образом:
$ bash-3.2$ db_dump185 -f comment.dump comment.db
Я получаю такую ошибку:
File size limit exceeded (core dumped)
Есть ли способ избежать этого?
Вот вывод ulimit -a
:
$ulimit -a
core file size (blocks, -c) 200000
data seg size (kbytes, -d) 200000
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 32743
max locked memory (kbytes, -l) 32
max memory size (kbytes, -m) 200000
open files (-n) 100
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 20
virtual memory (kbytes, -v) 200000
file locks (-x) unlimited
А это база данных:
$ ls -l comment.db
-rwxr-xr-x 1 daiello staff 184393728 Jan 12 2012 comment.db
Я хочу быть уверенным, что на этот вопрос есть ответ. Что предложил @Alan db_dump185 comment.db | cat > comment.dump
действительно помогло. Продолжение дампа в конечном итоге потребляет всю доступную реальную память и большую часть свопа.
Поэтому мы переместили файлы базы данных на более крупный сервер и впоследствии столкнулись с ужасным db_dump185: seq: invalid argument
ошибка. Я не верю, что db_dump185 имеет функцию восстановления, но я еще не провел всех исследований, которые мне хотелось бы провести.