// let's say there is a list of 1000+ URLs
string[] urls = { "http://google.com", "http://yahoo.com", ... };
// now let's send HTTP requests to each of these URLs in parallel
urls.AsParallel().ForAll(async (url) => {
var client = new HttpClient();
var html = await client.GetStringAsync(url);
});
Вот в чем проблема: одновременно запускается более 1000 веб-запросов. Есть ли простой способ ограничить одновременное количество этих асинхронных http-запросов? Таким образом, в любой момент времени загружается не более 20 веб-страниц. Как это сделать наиболее эффективно?
[code]// let's say there is a list of 1000+ URLs string[] urls = { "http://google.com", "http://yahoo.com", ... };
// now let's send HTTP requests to each of these URLs in parallel urls.AsParallel().ForAll(async (url) => { var client = new HttpClient(); var html = await client.GetStringAsync(url); }); [/code]
Вот в чем проблема: одновременно запускается более 1000 веб-запросов. Есть ли простой способ ограничить одновременное количество этих асинхронных http-запросов? Таким образом, в любой момент времени загружается не более 20 веб-страниц. Как это сделать наиболее эффективно?