网站开发工具与技术网站服务器费用

张小明 2026/3/12 11:40:16
网站开发工具与技术,网站服务器费用,python必背入门代码,建设外贸类网站基于上一篇文章文献阅读#xff1a;LEARNING FAST AND SLOW FORONLINE TIME SERIES FORECASTING-CSDN博客过后#xff0c;这里去根据论文中的代码仓库进行了一个实验。尊重原创代码#xff1a;GitHub - DMIRLAB-Group/LSTD 问题 这里发现给的配置文件不是很全面#xff0c…基于上一篇文章文献阅读LEARNING FAST AND SLOW FORONLINE TIME SERIES FORECASTING-CSDN博客过后这里去根据论文中的代码仓库进行了一个实验。尊重原创代码GitHub - DMIRLAB-Group/LSTD问题这里发现给的配置文件不是很全面基于全部的深度学习环境安装过后我的实验环境是RTX 5060ti 16g。基于论文中的计算KL散度会爆显存该放到学校的算力资源上a800 80g显存的情况下依然会爆显存。这里只能多用一张a800或者调低batchsize到原来的一半。依赖文件numpy 1.23.5 pandas 1.5.3 einops0.4.0 tqdm4.64.1 wandb numexpr scikit-learn参考d{ Traffic:{ 1: --method LSTD --root_path ./data/ --data Traffic --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 1 --depth 10 --hidden_dim 512 --hidden_layers 1 --tau 0.7 --batch_size 16 --learning_rate 0.003 --mode time, 24: --method LSTD --root_path ./data/ --data Traffic --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 24 --depth 9 --hidden_dim 512 --hidden_layers 2 --tau 0.75 --batch_size 8 --learning_rate 0.003 --mode time, 48: --method LSTD --root_path ./data/ --data Traffic --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 48 --depth 10 --hidden_dim 512 --hidden_layers 2 --tau 0.7 --batch_size 4 --learning_rate 0.003 --mode time }, Exchange:{ 1: --method LSTD --root_path ./data/ --data Exchange --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 1 --depth 10 --hidden_dim 448 --hidden_layers 1 --tau 0.7 --batch_size 4 --learning_rate 0.003 --mode time, 24: --method LSTD --root_path ./data/ --data Exchange --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 24 --depth 10 --hidden_dim 512 --hidden_layers 1 --tau 0.75 --batch_size 8 --learning_rate 0.003 --mode time, 48: --method LSTD --root_path ./data/ --data Exchange --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.0001 --zc_kl_weight 0.0001 --pred_len 48 --depth 9 --hidden_dim 448 --hidden_layers 1 --tau 0.75 --batch_size 8 --learning_rate 0.003 --mode time }, WTH: { 1: --method LSTD --root_path ./data/ --data WTH --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 1 --depth 9 --hidden_dim 512 --hidden_layers 1 --tau 0.75 --batch_size 8 --learning_rate 0.003 --mode time, 24: --method LSTD --root_path ./data/ --data WTH --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 24 --depth 9 --hidden_dim 256 --hidden_layers 1 --tau 0.7 --batch_size 4 --learning_rate 0.002 --mode var, 48: --method LSTD --root_path ./data/ --data WTH --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 48 --depth 9 --hidden_dim 256 --hidden_layers 1 --tau 0.7 --batch_size 4 --learning_rate 0.001 --mode var }, ECL: { 1: --method LSTD --root_path ./data/ --data ECL --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 1 --depth 9 --hidden_dim 512 --hidden_layers 1 --tau 0.75 --batch_size 16 --learning_rate 0.002 --mode time, 24: --method LSTD --root_path ./data/ --data ECL --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 24 --depth 9 --hidden_dim 512 --hidden_layers 1 --tau 0.75 --batch_size 8 --learning_rate 0.002 --mode var, 48: --method LSTD --root_path ./data/ --data ECL --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 48 --depth 9 --hidden_dim 512 --hidden_layers 1 --tau 0.75 --batch_size 8 --learning_rate 0.002 --mode var }, ETTh2: { 1: --method LSTD --root_path ./data/ --data ETTh2 --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 1 --depth 9 --hidden_dim 512 --hidden_layers 1 --tau 0.75 --batch_size 4 --learning_rate 0.003 --mode time, 24: --method LSTD --root_path ./data/ --data ETTh2 --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 24 --depth 9 --hidden_dim 512 --hidden_layers 1 --tau 0.75 --batch_size 4 --learning_rate 0.003 --mode var, 48: --method LSTD --root_path ./data/ --data ETTh2 --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 48 --depth 9 --hidden_dim 256 --hidden_layers 2 --tau 0.7 --batch_size 32 --learning_rate 0.003 --mode var }, ETTm1: { 1: --method LSTD --root_path ./data/ --data ETTm1 --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 1 --depth 9 --hidden_dim 512 --hidden_layers 1 --tau 0.75 --batch_size 8 --learning_rate 0.003 --mode time, 24: --method LSTD --root_path ./data/ --data ETTm1 --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 24 --depth 9 --hidden_dim 256 --hidden_layers 1 --tau 0.7 --batch_size 4 --learning_rate 0.003 --mode var, 48: --method LSTD --root_path ./data/ --data ETTm1 --n_inner 1 --test_bsz 1 --features M --seq_len 60 --label_len 0 --des Exp --itr 1 --train_epochs 6 --online_learning full --L1_weight 0.001 --dropout 0 --L2_weight 0.001 --zd_kl_weight 0.001 --zc_kl_weight 0.001 --pred_len 48 --depth 9 --hidden_dim 256 --hidden_layers 1 --tau 0.7 --batch_size 4 --learning_rate 0.002 --mode var }, }提示如果你的显卡是50系列cuda版本必须上12.8python版本必须3.10以上才能行数据文件放置位置应如图运行命令#!/bin/bash # 1. 定义你要跑的所有数据集名称 (必须和字典里的 Key 完全一致) # 如果只想跑其中几个可以在这里删减 datasets(Exchange WTH ECL ETTh2 ETTm1) # 2. 定义你要跑的长度 lengths(1 24 48) # 3. 定义种子 seed42 # 核心循环逻辑 for data in ${datasets[]}; do for len in ${lengths[]}; do echo ---------------------------------------------------------------- echo 正在启动任务: Dataset $data | Length $len | Seed $seed echo 当前时间: $(date) echo ---------------------------------------------------------------- # 执行 Python 命令 python run_LSTD.py -seed $seed -dataset $data -len $len # 检查是否报错 (如果报错打印提示但继续跑下一个) if [ $? -ne 0 ]; then echo 警告: $data ($len) 运行失败或被中断 else echo 成功: $data ($len) 运行完毕。 fi echo done done echo 所有任务执行结束这里的sh脚本执行直接在linux上起一个名字如 vim run_all.shbash 你的脚本.sh就行实验效果在ECL数据集上Namespace(dropout0.0, depth9, hidden_dim512, hidden_layers1, batch_size4, learning_rate0.002, tau0.75, zd_kl_weight0.001, zc_kl_weight0.001, L1_weight0.001, L2_weight0.001, rec_weight0.5, modevar, n_class4, No_priorTrue, is_bnFalse, dynamic_dim128, lags1, dataECL, root_path./data/, data_pathECL.csv, featuresM, targetOT, freqh, checkpoints./checkpoints/, seq_len60, label_len0, pred_len24, enc_in321, dec_in321, c_out321, d_model32, n_heads8, e_layers2, d_layers1, s_layers[3, 2, 1], d_ff128, factor5, padding0, distilTrue, attnprob, embedtimeF, activationgelu, output_attentionFalse, do_predictFalse, mixTrue, colsNone, num_workers0, itr1, train_epochs6, patience3, learning_rate_w0.001, learning_rate_bias0.001, weight_decay0.001, desExp, lossmse, lradjtype1, use_ampFalse, inverseFalse, methodLSTD, fc_dropout0.05, head_dropout0.0, patch_len16, stride8, padding_patchend, revin0, affine0, subtract_last0, decomposition0, kernel_size25, tcn_output_dim320, tcn_layer2, tcn_hidden160, individual1, teacher_forcingFalse, online_learningfull, optadam, test_bsz1, n_inner1, channel_crossFalse, use_gpuTrue, gpu0, use_multi_gpuFalse, devices0,1,2,3, finetuneFalse, finetune_model_seed42, aug0, lr_test0.001, versionWavelets, mode_selectrandom, modes64, L3, baselegendre, cross_activationtanh, moving_avg[24], gamma0.1, m24, loss_aug0.5, use_adbfgsTrue, period_len12, mlp_depth3, mlp_width256, station_lr0.0001, sleep_interval1, sleep_epochs1, sleep_kl_pre0, delay_fbFalse, online_adjust0.5, offline_adjust0.5, online_adjust_var0.5, var_weight0.0, alpha_w0.0001, alpha_d0.003, test_lr0.1, seed42, detail_freqh)42mse:1.7189000650215682, mae:0.2748529085257549mse误差比论文中的最好效果高了0.3。往往轻量级别的时间序列数据集显存16G就吃得消了且精度达不到文章中的最好效果确实能跑但是效果确实达不到论文中的水平
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

网站域名费用交给谁做网站 徐州

想要快速掌握Stable Diffusion的核心玩法?本文为你揭秘7大实战技巧,从环境搭建到参数调优,带你深入探索这个惊艳的AI图像生成世界。无论你是AI新手还是资深玩家,这些技巧都能让你的创作效率翻倍! 【免费下载链接】stab…

张小明 2026/3/5 4:26:11 网站建设

哪里有专业做网站做爰的视频网站

掌握Apache Doris可视化管理:新手也能轻松上手的完整指南 【免费下载链接】doris Apache Doris is an easy-to-use, high performance and unified analytics database. 项目地址: https://gitcode.com/gh_mirrors/dori/doris 你是否曾经面对复杂的命令行界面…

张小明 2026/3/5 4:26:12 网站建设

做推送的网站除了秀米还有公司注册网站需要什么资料

跨设备音频实时同步:3步实现Windows与安卓无缝传输 【免费下载链接】AudioShare 将Windows的音频在其他Android设备上实时播放。Share windows audio 项目地址: https://gitcode.com/gh_mirrors/audi/AudioShare 你是否曾想过将电脑上正在播放的电影原声&…

张小明 2026/3/5 4:26:21 网站建设

网站做视频流量赚钱吗上饶百度网站建设

Kotaemon:构建可信赖的生产级智能对话代理 在企业纷纷拥抱人工智能的今天,一个现实问题摆在面前:我们有了强大的大语言模型,但如何让这些“聪明的大脑”真正落地,变成稳定、可靠、能持续迭代的业务系统?很…

张小明 2026/3/5 4:26:16 网站建设

湖南网站推广优化百度的域名

在使用单机 Docker 部署 Redis Sentinel 后, Python 调用报 MasterNotFoundError TimeoutError,核心原因是Docker 网络配置问题(容器端口未映射/IP 访问不到)或 Sentinel 配置错误(监控的主节点是容器内部 IP&#xf…

张小明 2026/3/5 4:26:18 网站建设

饭店网站模板忻州网络公司网站建设

节省通信成本 流量套餐通常提供比单次购买流量更优惠的价格,长期使用可显著降低通信费用。运营商常推出阶梯式套餐,满足不同用户需求,如大流量包、定向免流等,避免额外支出。使用便捷性 套餐流量自动生效,无需频繁充值…

张小明 2026/3/5 4:26:22 网站建设