<p dir="ltr">Подмонтируйте библиотеку по WebDAV и работайте как с обычной директорией </p>
<br><div class="gmail_quote">пт, 16 янв. 2015, 18:25, NIR <<a href="mailto:faust@gmx.com">faust@gmx.com</a>>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div text="#000000" bgcolor="#FFFFFF">
<div>К сожалению, wget и прочие не
переваривают JavaScript, который грузит списки файлов по 30 штук
на страницу, а также начнёт качать много того, что абсолютно не
нужно.<br>
<br>
Мне тут подсказали уточнить на счёт REST API и я таки имею
информацию, что он доступен, но я не могу понять как и что слать
SharePoint, чтобы он мне выдал листинг. У Tcl есть модуль ::rest::,
но в документации о нём сказано примерно ничего.<br>
<br>
P. S.: А ещё у SharePoint есть SOAP и прочие плюшки, но, опять же,
об этих технологиях я знаю только то, что они есть и у них есть
ИКСЭМЭЛЬ.<br>
<br>
16.01.2015 18:52, Dmitry Agafonov пишет:<br>
</div></div><div text="#000000" bgcolor="#FFFFFF">
<blockquote type="cite">
<pre>Если там обычные корректные url на файлы и подпапки, то классика жанра -
wget.
К ней есть веб морды, если лениво, и есть описания в т.ч. на русском.
16 января 2015 г., 15:55 пользователь NIR <a href="mailto:faust@gmx.com" target="_blank"><faust@gmx.com></a> написал:
</pre>
<blockquote type="cite">
<pre> Всем привет.
Столкнулся с задачей: выкачать из определённой библиотеки SharePoint все
файлы. Файлов порядка 11000. Есть упрощающая задачу штука: список файлов
(неполный). Желание автоматизировать и ускорить процесс родило костыль:
Есть простой скрипт вида для загрузки одного файла:
#!/bin/sh
cd "/home/nir/Work/FLC/Actual/First run/Drawings/Siterip";
curl -i --ntlm -k -O -G --sslv3 -A "Mozilla/5.0 (Windows; U; Windows NT
5.1; en-US) AppleWebKit/525.13 (KHTML, like Gecko) Chrome/0.A.B.C
Safari/525.13" --user "MyUsername:MyPassword"
<a href="https://sharepoint.website.com/sites/blah/blah/Library/$1" target="_blank">"https://sharepoint.website.com/sites/blah/blah/Library/$1"</a>
<a href="https://sharepoint.website.com/sites/blah/blah/Library/$1" target="_blank"><https://sharepoint.website.com/sites/blah/blah/Library/$1></a>
Есть скрипт на Tcl, который переваривает файл со списком выгружаемых
документов и по одному их качает. Таким образом выгрузил порядка 4500
документов из 11000.
Проблемы:
1) curl гадит в начало файлов HTTP-заголовками, которые придётся подчищать
ещё одним костылём.
2) Как выкачать все файлы из библиотеки, если я не знаю их названий? Ещё
библиотеке есть подпапки, в которые было бы неплохо зайти и тоже всё
выкачать.
Заранее спасибо.
--
С уважением, Игорь Чудов
Энгельсский Инструментальный Завод "ЭИЗ"
Сайт: <a href="http://nir.org.ru/" target="_blank">http://nir.org.ru/</a>
Телефон: +7 937 266-51-34
_______________________________________________
Sarlug mailing list
<a href="mailto:Sarlug@lists.lug.ru" target="_blank">Sarlug@lists.lug.ru</a>
<a href="https://lists.lug.ru/mailman/listinfo/sarlug" target="_blank">https://lists.lug.ru/mailman/listinfo/sarlug</a>
</pre>
</blockquote>
<pre>
</pre>
</blockquote>
<br>
<br>
<pre cols="72">--
С уважением, Игорь Чудов
Энгельсский Инструментальный Завод "ЭИЗ"
Сайт: <a href="http://nir.org.ru/" target="_blank">http://nir.org.ru/</a>
Телефон: +7 937 266-51-34</pre>
</div>
______________________________<u></u>_________________<br>
Sarlug mailing list<br>
<a href="mailto:Sarlug@lists.lug.ru" target="_blank">Sarlug@lists.lug.ru</a><br>
<a href="https://lists.lug.ru/mailman/listinfo/sarlug" target="_blank">https://lists.lug.ru/mailman/<u></u>listinfo/sarlug</a></blockquote></div>