Скачать файл из телеграма не регистрируясь
Охота узнать, какой компьютер можно слепить из технологий 1941 года.
question4 ★★★★★
( 10.01.21 02:45:07 MSK ) автор топика
Вывод такой: чтобы решить твою задачу, нужен человек, который умрет за твои грехи введет свой телефон вместо тебя и спасет твою душу напишет бот и интерфейс к нему (хотя бы веб-морду). То есть, технически это возможно. Готовых решений не знаю.
Bagrov ★★★★★
( 10.01.21 03:07:02 MSK )
А в чем проблема купить sms на sms-activate за 2 рубля и зарегистрироваться в телеграме на левый номер?
mbivanyuk ★★★★★
( 10.01.21 08:25:27 MSK )
Ответ на: комментарий от mbivanyuk 10.01.21 08:25:27 MSK
В том, что телеграм банит такие сервисы.
hateyoufeel ★★★★★
( 10.01.21 15:19:40 MSK )
Ответ на: комментарий от question4 10.01.21 02:45:07 MSK
Пишешь роман о попаданцах?
luke ★★★★★
( 10.01.21 21:36:16 MSK )
Ответ на: комментарий от luke 10.01.21 21:36:16 MSK
question4 ★★★★★
( 10.01.21 22:07:59 MSK ) автор топика
Ответ на: комментарий от question4 10.01.21 22:07:59 MSK
Я помолюсь за твою грешную душу.
luke ★★★★★
( 11.01.21 00:02:57 MSK )
Ответ на: комментарий от luke 11.01.21 00:02:57 MSK
question4 ★★★★★
( 11.01.21 00:45:26 MSK ) автор топика
Ответ на: комментарий от hateyoufeel 10.01.21 15:19:40 MSK
Ты пробовал? Я да, все прекрасно работает. Но спорить не буду, как знаешь.
mbivanyuk ★★★★★
( 11.01.21 02:50:48 MSK )
Ответ на: комментарий от hateyoufeel 10.01.21 15:19:40 MSK
Если просто зарегаться и скачать файл, не банит. Мб больше влияние на какой-нибудь анти-спам ИИ, но при пассивном использовании проблем не встречал. А спамом я не занимаюсь.
KivApple ★★★★★
( 11.01.21 02:54:05 MSK )
Последнее исправление: KivApple 11.01.21 03:02:59 MSK (всего исправлений: 2)
Ответ на: комментарий от question4 10.01.21 02:45:07 MSK
eniac ))) правда он в 1946 появился.
Как получить ссылку на скачивание файлов без регистрации
Часто можно встретить надпись на разных сайтах «Доступно только для пользователей». Значит. чтобы увидеть ссылку на скачивание файла, необходимо зарегистрироваться. Но иногда (не всегда!) можно легко обойти это и получит ссылки безо всякой регистрации. Получаем ссылку без регистрации Для получения ссылки нам нужно увидеть HTML-код web-страцы. Для этого кликаем правой кнопкой мыши на странице и выбираем: «Исходный код» (Opera), «Просмотр исходного кода страницы» (Mozilla Firefox), «Просмотр HTML-кода» (Internet Explorer), «Просмотреть источник сраницы» (Google Chrome, которым я с переменным успехом пользовался несколько днея назад). Не отвечаю за абсолютную правильность, т.к. у меня три из четырех браузеров на украинском. Внимание! Для просмотра HTML-кода можно просто нажать комбинацию клавиш Ctrl+U во всех браузерах.
Далее необходимо подключить поиск: в Opera — клик правой кнопкой мыши > «Создать поиск». Комбинация клавиш для всех браузеров: Ctrl+F. Искать мы будем слова, которые написаны на странице рядом с надписью «Доступно только. «. Я выбрал «Медведев и Путин».
На странице может встретиться несколько таких надписей, но (домашнее задание!) несложно определить искомую.
Сразу за ней будет идти знакомая надпись про «Доступно. »
Лирическое отступление: самые сообразительные спросят, а почему бы сразу не искать именно этот текст, «Доступно только для пользователей»? Отвечаю: этот текст, как правило, скрытый, и ваш браузер его не найдет. Хотите — проверьте! (Скамейка окрашена)
Следом за надписью про доступ можно увидеть ссылки на файлообменники: в данном случае это — DepositFiles и LetItBe. Вот они-то нам и нужны. Выделим и скопируем (Ctrl+C), например, ссылку на депозитфайлз.
Откроем новую вкладку (Ctrl+T) и вставим ссылку в адресную строку (Ctrl+V). Нажимаем Enter и нашему взору открывается нужная страница для скачивания файлов.
Аналогично происходит и со ссылкой на летитбит. Удачи!
Вечно ваш, дядя Шурик. Все мои посты с тегом HTML P.S. Переходы в мой дневник по поисковым фразам сегодня «радуют»: новодевичье кладбище, сердечко на писе, изнасилование онлайн, банк рецептов, магаданская область, михай гимпу , одноклассники эротика, мисс россия разных лет, картинки с именами, знаменитые порноактрисы.
Рубрики: | Реклама дневников |
Как скачать файл, если нет прямой ссылки? Python request
Есть следующий get запрос на скачивание xlsx файла: https://seller.wildberries.ru/ns/api/suppliers-portal-feedbacks-questions/api/v1/questions/report?isAnswered=false На выходе я получаю параметры fileName, contentType и file. Сам file состоит из 8 тысяч символов. Были попытка записать файл следующим образом:
import requests cookies = . # тут я передаю куки-файлы response = requests.get(url='https://seller.wildberries.ru/ns/api/suppliers-portal' '-feedbacks-questions/api/v1/questions/report?isAnswered=false', cookies=cookie) with open(response.json()['data']['fileName'], 'wb') as file: file.write(b"test.json()['data']['file']")
Но это не помогает. Я попробовал разные методы, однако ничего не увенчалось успехом (декодировал строку и т.д.). В загрузках Chrome показывает, что скачивание файла происходит по blob ссылке, но её связать с получаемыми по get запросу данными я никак не могу.
11 фишек для извлечения и сохранения данных с сайтов
В закладки
БЕЗ скриптов, макросов, регулярных выражений и командной строки.
Эта статья пригодится студентам, которые хотят скачать все картинки с сайта разом, чтобы потом одним движением вставить их в Power Point и сразу получить готовую презентацию. Владельцам электронных библиотек, которые собирают новые книги по ресурсам конкурентов. Просто людям, которые хотят сохранить интересный сайт/страницу в соцсети, опасаясь, что те могут скоро исчезнуть, а также менеджерам, собирающим базы контактов для рассылок.
Есть три основные цели извлечения/сохранения данных с сайта на свой компьютер:
- Чтобы не пропали;
- Чтобы использовать чужие картинки, видео, музыку, книги в своих проектах (от школьной презентации до полноценного веб-сайта);
- Чтобы искать на сайте информацию средствами Spotlight, когда Google не справляется (к примеру поиск изображений по exif-данным или музыки по исполнителю).
Ситуации, когда неожиданно понадобится автоматизированно сохранить какую-ту информацию с сайта, могут случиться с каждым и надо быть к ним готовым. Если вы умеете писать скрипты для работы с утилитами wget/curl, то можете смело закрывать эту статью. А если нет, то сейчас вы узнаете о самых простых приемах сохранения/извлечения данных с сайтов.
1. Скачиваем сайт целиком для просмотра оффлайн
В OS X это можно сделать с помощью приложения HTTrack Website Copier, которая настраивается схожим образом.
Пользоваться Site Sucker очень просто. Открываем программу, выбираем пункт меню File -> New, указываем URL сайта, нажимаем кнопку Download и дожидаемся окончания скачивания.
Чтобы посмотреть сайт надо нажать на кнопку Folder, найти в ней файл index.html (главную страницу) и открыть его в браузере. SiteSucker скачивает только те данные, которые доступны по протоколу HTTP. Если вас интересуют исходники сайта (к примеру, PHP-скрипты), то для этого вам нужно в открытую попросить у его разработчика FTP-доступ.
2. Прикидываем сколько на сайте страниц
Перед тем как браться за скачивание сайта, необходимо приблизительно оценить его размер (не затянется ли процесс на долгие часы). Это можно сделать с помощью Google. Открываем поисковик и набираем команду site: адрес искомого сайта. После этого нам будет известно количество проиндексированных страниц. Эта цифра не соответствуют точному количеству страниц сайта, но она указывает на его порядок (сотни? тысячи? сотни тысяч?).
3. Устанавливаем ограничения на скачивание страниц сайта
Если вы обнаружили, что на сайте тысячи страниц, то можно ограничить число уровней глубины скачивания. К примеру, скачивать только те страницы, на которые есть ссылка с главной (уровень 2). Также можно ограничить размер загружаемых файлов, на случай, если владелец хранит на своем ресурсе tiff-файлы по 200 Мб и дистрибутивы Linux (и такое случается).
Сделать это можно в Settings -> Limits.
4. Скачиваем с сайта файлы определенного типа
В Settings -> File Types -> Filters можно указать какие типы файлов разрешено скачивать, либо какие типы файлов запрещено скачивать (Allow Specified Filetypes/Disallow Specifies Filetypes). Таким образом можно извлечь все картинки с сайта (либо наоборот игнорировать их, чтобы места на диске не занимали), а также видео, аудио, архивы и десятки других типов файлов (они доступны в блоке Custom Types) от документов MS Word до скриптов на Perl.
5. Скачиваем только определенные папки
Если на сайте есть книги, чертежи, карты и прочие уникальные и полезные материалы, то они, как правило, лежат в отдельном каталоге (его можно отследить через адресную строку браузера) и можно настроить SiteSucker так, чтобы скачивать только его. Это делается в Settings -> Paths -> Paths to Include. А если вы хотите наоборот, запретить скачивание каких-то папок, то их адреса надо указать в блоке Paths to Exclude
6. Решаем вопрос с кодировкой
Если вы обнаружили, что скачанные страницы вместо текста содержат кракозябры, там можно попробовать решить эту проблему, поменяв кодировку в Settings -> Advanced -> General. Если неполадки возникли с русским сайтом, то скорее всего нужно указать кодировку Cyrillic Windows. Если это не сработает, то попробуйте найти искомую кодировку с помощью декодера Лебедева (в него надо вставлять текст с отображающихся криво веб-страниц).
7. Делаем снимок веб-страницы
Сделать снимок экрана умеет каждый. А знаете ли как сделать снимок веб-страницы целиком? Один из способов — зайти на web-capture.net и ввести там ссылку на нужный сайт. Не торопитесь, для сложных страниц время создания снимка может занимать несколько десятков секунд. Еще это можно провернуть в Google Chrome, а также в других браузерах с помощью дополнения iMacros.
Это может пригодиться для сравнения разных версий дизайна сайта, запечатления на память длинных эпичных перепалок в комментариях или в качестве альтернативы способу сохранения сайтов, описанного в предыдущих шести пунктах.
8. Сохраняем картинки только с определенной страницы
Идем на owdig.com, указываем нужную ссылку, ждем когда отобразятся все картинки и кликаем на оранжевую полоску справа, чтобы скачать их в архиве.
9. Извлекаем HEX-коды цветов с веб-сайта
Идем на colorcombos.com и набираем адрес искомой страницы и получаем полный список цветов, которые использованы на ней.
10. Извлекаем из текста адреса электронной почты
Предположим, что вам надо сделать рассылку по сотрудникам компании, а их email-адреса есть только на странице корпоративного сайта и копировать их оттуда в ручную займет лишние 20-30 минут. В такой ситуации на помощь приходит сервис emailx.discoveryvip.com. Просто вставьте туда текст и через секунду вы получите список всех адресов электронной почты, которые в нем найдены.
11. Извлекаем из текста номера телефонов
Идем на convertcsv.com/phone-extractor.htm, копируем в форму текст/html-код, содержащий номера телефонов и нажимаем на кнопку Extract.
А если надо отфильтровать в тексте заголовки, даты и прочую информацию, то к вам на помощь придут регулярные выражения и Sublime Text.
Есть и другие способы извлечения данных с сайтов. Можно попросить какую-ту информацию непосредственно у владельца ресурса, cохранять части веб-страниц с помощью iMacros и парсить сайты с помощью Google Apps Script. Еще можно пойти традиционным путем и написать для парсинга bash-скрипт, но статей об этом на iPhones.ru пока нет.