import requests
response = requests.post(
"https://api.downloader.org/api/v1/submit/",
headers={"Authorization": "API_KEY"},
json={"url": "URL"},
)
for item in response.json()["items"]:
print(item["type"], item["url"])
Hotnewhiphop Саволҳо оид ба боргирӣ
Да! Боркунак ба шумо имкон медиҳад, ки медиаи ҷамъиятиро аз Hotnewhiphop бе қайд ё ворид шудан ба система зуд бор кунед. Танҳо URL- ро дарҷ кунед ва бор кунед.
Боргиранда намудҳои гуногуни медиаро, аз ҷумла видео, тасвирҳо, файлҳои аудиоӣ ва GIF-ро аз Hotnewhiphop дастгирӣ мекунад. Форматҳои дастрас аз он вобаста аст, ки платформа чӣ пешниҳод мекунад.
Да, загрузчик всегда получает наивысшую доступную качество из Hotnewhiphop. Файлы, которые вы загрузили, будут соответствовать качеству оригинала, когда это возможно.
Не. Перегрузки полностью частны. Ни Downloader, ни Hotnewhiphop не уведомят создателя контента о вашей деятельности по перегрузке.
Тағйири формат маънои табдил додани медиа аз як формат ба формати дигар барои истифодаи шахсӣ дорад — масалан, захира кардани видео ҳамчун аудиои MP3. Дар бисёр кишварҳо, тағйири формат барои истифодаи шахсӣ, ғайри тиҷоратӣ истифодаи одилона ҳисобида мешавад. Бо вуҷуди ин, ҳамеша ҳуқуқи муаллиф ва шартҳои хидматрасонии платформаро риоя кунед.
Суръати зеркашӣ аз пайвасти интернетии шумо ва андозаи файл аз Hotnewhiphop вобаста аст. Мо дархостҳоро фавран коркард мекунем ва барои зудтарин суръати интиқол пайвандҳои мустақими зеркашӣ пешниҳод менамоем.
Истифодабарандагони Pro метавонанд якчанд ашёро бо часбонидани URL-ҳои гуногун дар як вақт ба таври дастӣ зеркашӣ кунанд. Истифодабарандагони ройгон метавонанд як URL-ро дар як вақт зеркашӣ кунанд. Барои кушодани зеркашии ба таври дастӣ ва дигар хусусиятҳои олӣ, ба Pro навсозӣ кунед.
Не. Боргириҳои шумо махфӣ ва беном мебошанд. Ҳангоми захира кардани мундариҷаи дастраси оммавӣ бо истифода аз Downloader, на Hotnewhiphop ва на эҷодкунандагони мундариҷа огоҳ карда намешаванд.
Агар зеркашӣ ноком шавад, аввал дурустии URL-ро санҷед ва мундариҷа дастраси омма аст. Кӯшиш кунед, ки саҳифаро навсозӣ кунед ва дубора кӯшиш кунед. Агар мушкилот идома ёбанд, мундариҷа метавонад маҳдуд ё муваққатан дастнорас бошад.
Бале! Downloader дар ҳама браузерҳои мобилӣ, аз ҷумла Safari, Chrome ва Firefox кор мекунад. Барои зеркашӣ кардани мундариҷа аз Hotnewhiphop дар ҳама ҷо ва дар вақти дилхоҳ ба вебсайти мо дар телефон ё планшети худ ворид шавед.
Агар истинод кор накунад, боварӣ ҳосил кунед, ки мундариҷа дастраси омма аст ва маҳдуд нест. Баъзе мундариҷа метавонанд аз рӯи минтақа маҳдуд бошанд ё воридшавӣ талаб кунанд. Кӯшиш кунед, ки браузери дигарро истифода баред ё кэши худро тоза кунед.
[Error: All translation engines failed for batch: MADLAD batch translation failed: CUDA out of memory. Tried to allocate 2.00 MiB. GPU 0 has a total capacity of 23.87 GiB of which 3.62 MiB is free. Process 3280094 has 228.00 MiB memory in use. Process 2050901 has 244.00 MiB memory in use. Process 3310941 has 1.43 GiB memory in use. Process 3310930 has 1.56 GiB memory in use. Process 3310934 has 1.06 GiB memory in use. Process 3310933 has 1.12 GiB memory in use. Process 3310931 has 1.10 GiB memory in use. Process 3310938 has 1.53 GiB memory in use. Process 3310945 has 1.19 GiB memory in use. Process 3310935 has 1.02 GiB memory in use. Process 3310940 has 1.06 GiB memory in use. Process 3310929 has 1.04 GiB memory in use. Process 3310947 has 1000.00 MiB memory in use. Process 3310943 has 1.06 GiB memory in use. Including non-PyTorch memory, this process has 8.95 GiB memory in use. Process 3358747 has 336.00 MiB memory in use. Of the allocated memory 8.76 GiB is allocated by PyTorch, and 14.78 MiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation. See documentation for Memory Management (https://pytorch.org/docs/stable/notes/cuda.html#environment-variables)]
[Error: All translation engines failed for batch: MADLAD batch translation failed: CUDA out of memory. Tried to allocate 2.00 MiB. GPU 0 has a total capacity of 23.87 GiB of which 3.62 MiB is free. Process 3280094 has 228.00 MiB memory in use. Process 2050901 has 244.00 MiB memory in use. Process 3310941 has 1.43 GiB memory in use. Process 3310930 has 1.56 GiB memory in use. Process 3310934 has 1.06 GiB memory in use. Process 3310933 has 1.12 GiB memory in use. Process 3310931 has 1.10 GiB memory in use. Process 3310938 has 1.53 GiB memory in use. Process 3310945 has 1.19 GiB memory in use. Process 3310935 has 1.02 GiB memory in use. Process 3310940 has 1.06 GiB memory in use. Process 3310929 has 1.04 GiB memory in use. Process 3310947 has 1000.00 MiB memory in use. Process 3310943 has 1.06 GiB memory in use. Including non-PyTorch memory, this process has 8.95 GiB memory in use. Process 3358747 has 336.00 MiB memory in use. Of the allocated memory 8.76 GiB is allocated by PyTorch, and 14.78 MiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation. See documentation for Memory Management (https://pytorch.org/docs/stable/notes/cuda.html#environment-variables)]
[Error: All translation engines failed for batch: MADLAD batch translation failed: CUDA out of memory. Tried to allocate 2.00 MiB. GPU 0 has a total capacity of 23.87 GiB of which 3.62 MiB is free. Process 3280094 has 228.00 MiB memory in use. Process 2050901 has 244.00 MiB memory in use. Process 3310941 has 1.43 GiB memory in use. Process 3310930 has 1.56 GiB memory in use. Process 3310934 has 1.06 GiB memory in use. Process 3310933 has 1.12 GiB memory in use. Process 3310931 has 1.10 GiB memory in use. Process 3310938 has 1.53 GiB memory in use. Process 3310945 has 1.19 GiB memory in use. Process 3310935 has 1.02 GiB memory in use. Process 3310940 has 1.06 GiB memory in use. Process 3310929 has 1.04 GiB memory in use. Process 3310947 has 1000.00 MiB memory in use. Process 3310943 has 1.06 GiB memory in use. Including non-PyTorch memory, this process has 8.95 GiB memory in use. Process 3358747 has 336.00 MiB memory in use. Of the allocated memory 8.76 GiB is allocated by PyTorch, and 14.77 MiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation. See documentation for Memory Management (https://pytorch.org/docs/stable/notes/cuda.html#environment-variables)]
🚀
Зеркашии оммавӣ - Зеркашии оммавии як клик
📥
Дастгирии URL-ҳои сершумор - Мундариҷаро аз якчанд URL якбора бо вергул ҷудо кунед