<html>
<head>
<meta content="text/html; charset=utf-8" http-equiv="Content-Type">
</head>
<body text="#000000" bgcolor="#FFFFFF">
<div class="moz-cite-prefix">К сожалению, wget и прочие не
переваривают JavaScript, который грузит списки файлов по 30 штук
на страницу, а также начнёт качать много того, что абсолютно не
нужно.<br>
<br>
Мне тут подсказали уточнить на счёт REST API и я таки имею
информацию, что он доступен, но я не могу понять как и что слать
SharePoint, чтобы он мне выдал листинг. У Tcl есть модуль ::rest::,
но в документации о нём сказано примерно ничего.<br>
<br>
P. S.: А ещё у SharePoint есть SOAP и прочие плюшки, но, опять же,
об этих технологиях я знаю только то, что они есть и у них есть
ИКСЭМЭЛЬ.<br>
<br>
16.01.2015 18:52, Dmitry Agafonov пишет:<br>
</div>
<blockquote
cite="mid:CAJPLOZoq0B2tNqOsO1cxAOq2aJ263mpB9_aU9x5MM=JehkL3qg@mail.gmail.com"
type="cite">
<pre wrap="">Если там обычные корректные url на файлы и подпапки, то классика жанра -
wget.
К ней есть веб морды, если лениво, и есть описания в т.ч. на русском.
16 января 2015 г., 15:55 пользователь NIR <a class="moz-txt-link-rfc2396E" href="mailto:faust@gmx.com"><faust@gmx.com></a> написал:
</pre>
<blockquote type="cite">
<pre wrap=""> Всем привет.
Столкнулся с задачей: выкачать из определённой библиотеки SharePoint все
файлы. Файлов порядка 11000. Есть упрощающая задачу штука: список файлов
(неполный). Желание автоматизировать и ускорить процесс родило костыль:
Есть простой скрипт вида для загрузки одного файла:
#!/bin/sh
cd "/home/nir/Work/FLC/Actual/First run/Drawings/Siterip";
curl -i --ntlm -k -O -G --sslv3 -A "Mozilla/5.0 (Windows; U; Windows NT
5.1; en-US) AppleWebKit/525.13 (KHTML, like Gecko) Chrome/0.A.B.C
Safari/525.13" --user "MyUsername:MyPassword"
<a class="moz-txt-link-rfc2396E" href="https://sharepoint.website.com/sites/blah/blah/Library/$1">"https://sharepoint.website.com/sites/blah/blah/Library/$1"</a>
<a class="moz-txt-link-rfc2396E" href="https://sharepoint.website.com/sites/blah/blah/Library/$1"><https://sharepoint.website.com/sites/blah/blah/Library/$1></a>
Есть скрипт на Tcl, который переваривает файл со списком выгружаемых
документов и по одному их качает. Таким образом выгрузил порядка 4500
документов из 11000.
Проблемы:
1) curl гадит в начало файлов HTTP-заголовками, которые придётся подчищать
ещё одним костылём.
2) Как выкачать все файлы из библиотеки, если я не знаю их названий? Ещё
библиотеке есть подпапки, в которые было бы неплохо зайти и тоже всё
выкачать.
Заранее спасибо.
--
С уважением, Игорь Чудов
Энгельсский Инструментальный Завод "ЭИЗ"
Сайт: <a class="moz-txt-link-freetext" href="http://nir.org.ru/">http://nir.org.ru/</a>
Телефон: +7 937 266-51-34
_______________________________________________
Sarlug mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Sarlug@lists.lug.ru">Sarlug@lists.lug.ru</a>
<a class="moz-txt-link-freetext" href="https://lists.lug.ru/mailman/listinfo/sarlug">https://lists.lug.ru/mailman/listinfo/sarlug</a>
</pre>
</blockquote>
<pre wrap="">
</pre>
</blockquote>
<br>
<br>
<pre class="moz-signature" cols="72">--
С уважением, Игорь Чудов
Энгельсский Инструментальный Завод "ЭИЗ"
Сайт: <a class="moz-txt-link-freetext" href="http://nir.org.ru/">http://nir.org.ru/</a>
Телефон: +7 937 266-51-34</pre>
</body>
</html>