Skip to main content

fast_down_ffi/
config.rs

1use fast_down::{ProgressEntry, utils::Proxy};
2use std::{collections::HashMap, net::IpAddr, time::Duration};
3
4#[cfg_attr(feature = "serde", derive(serde::Serialize, serde::Deserialize))]
5#[derive(Debug, Clone, PartialEq, Eq, Default)]
6pub enum WriteMethod {
7    #[default]
8    Mmap,
9    Std,
10}
11
12#[cfg_attr(feature = "serde", derive(serde::Serialize, serde::Deserialize))]
13#[derive(Debug, Clone, PartialEq, Eq)]
14pub struct Config {
15    /// 线程数量,推荐值 `32` / `16` / `8`。线程越多不意味着越快
16    pub threads: usize,
17    /// 设置代理,支持 https、http、socks5 代理
18    pub proxy: Proxy<String>,
19    /// 自定义请求头
20    pub headers: HashMap<String, String>,
21    /// 最小分块大小,单位为字节,推荐值 `8 * 1024 * 1024`
22    ///
23    /// - 分块太小容易造成强烈竞争
24    /// - 当无法分块的时候会进入冗余竞争模式
25    pub min_chunk_size: u64,
26    /// 写入缓冲区大小,单位为字节,推荐值 `16 * 1024 * 1024`
27    ///
28    /// - 只对 [`WriteMethod::Std`] 写入方法有效,有利于将随机写入转换为顺序写入,提高写入速度
29    /// - 对于 [`WriteMethod::Mmap`] 写入方法无效,因为写入缓冲区由系统决定
30    pub write_buffer_size: usize,
31    /// 写入队列容量,推荐值 `10240`
32    ///
33    /// 如果下载线程太快,填满了写入队列,会触发压背,降低下载速度,防止内存占用过大
34    pub write_queue_cap: usize,
35    /// 请求失败后的默认重试间隔,推荐值 `500ms`
36    ///
37    /// 如果服务器返回中有 `Retry-After` 头,则遵循服务器返回的设定
38    pub retry_gap: Duration,
39    /// 拉取超时时间,推荐值 `5000ms`
40    ///
41    /// 请求发出后,接收字节中,如果在 `pull_timeout` 这一段时间内一个字节也没收到,则中断连接,重新请求。
42    /// 有利于触发 TCP 重新检测拥塞状态,提高下载速度
43    pub pull_timeout: Duration,
44    /// 是否接受无效证书(危险),推荐值 `false`
45    pub accept_invalid_certs: bool,
46    /// 是否接受无效主机名(危险),推荐值 `false`
47    pub accept_invalid_hostnames: bool,
48    /// 写入磁盘方式,推荐值 [`WriteMethod::Mmap`]
49    ///
50    /// - [`WriteMethod::Mmap`] 写入方式速度最快,将写入交给操作系统执行,但是:
51    ///     1. 在 32 位系统上最大只能映射 4GB 的文件,所以在 32 位系统上,会自动回退到 [`WriteMethod::Std`]
52    ///     2. 必须知道文件大小,否则会自动回退到 [`WriteMethod::Std`]
53    ///     3. 特殊情况下会出现系统把所有数据全部缓存在内存中,下载完成后一次性写入磁盘,造成下载完成后长时间卡顿
54    /// - [`WriteMethod::Std`] 写入方式兼容性最好,会在 `write_buffer_size` 内对片段进行排序,尽量转换为顺序写入
55    pub write_method: WriteMethod,
56    /// 设置获取元数据的重试次数,推荐值 `10`。注意,这不是下载中的重试次数
57    pub retry_times: usize,
58    /// 使用哪些地址来发送请求,推荐值 `Vec::new()`
59    ///
60    /// 如果你有多个网卡可用,可以填写他们的对外 IP 地址,请求会在这些 IP 地址上轮换,下载不一定会更快
61    pub local_address: Vec<IpAddr>,
62    /// 冗余线程数,推荐值 `3`
63    ///
64    /// 当块大小小于 `min_chunk_size` 后无法分块,进入冗余竞争模式。
65    /// 最多有 `max_speculative` 个线程在同一分块上竞争下载,以解决下载卡进度 99% 的问题
66    pub max_speculative: usize,
67    /// 已经下载过的部分,如果你想下载整个文件,就传 `Vec::new()`
68    pub downloaded_chunk: Vec<ProgressEntry>,
69    /// 已下载分块的平滑窗口,单位为字节,推荐值 `8 * 1024`
70    ///
71    /// 它会过滤掉 `downloaded_chunk` 中小于 `chunk_window` 的小空洞,以减小 HTTP 请求数量
72    pub chunk_window: u64,
73}
74
75impl Default for Config {
76    fn default() -> Self {
77        Self {
78            retry_times: 10,
79            threads: 32,
80            proxy: Proxy::System,
81            headers: HashMap::new(),
82            min_chunk_size: 8 * 1024 * 1024,
83            write_buffer_size: 16 * 1024 * 1024,
84            write_queue_cap: 10240,
85            retry_gap: Duration::from_millis(500),
86            pull_timeout: Duration::from_secs(5),
87            accept_invalid_certs: false,
88            accept_invalid_hostnames: false,
89            local_address: Vec::new(),
90            max_speculative: 3,
91            write_method: WriteMethod::Mmap,
92            downloaded_chunk: Vec::new(),
93            chunk_window: 8 * 1024,
94        }
95    }
96}