域名服务商网站wordpress编辑器 下载

张小明 2026/3/13 4:57:55
域名服务商网站,wordpress编辑器 下载,附近设计公司有哪些,wordpress搭建好后如何在前台显示目录 一、高级数据加载与预处理 1.1 高效读取大文件 1.2 处理缺失值的进阶技巧 二、高效数据转换与计算 2.1 向量化操作与性能优化 2.2 高级分组与聚合 三、时间序列数据处理 3.1 高级时间序列操作 一、高级数据加载与预处理 1.1 高效读取大文件 python import pand…目录一、高级数据加载与预处理1.1 高效读取大文件1.2 处理缺失值的进阶技巧二、高效数据转换与计算2.1 向量化操作与性能优化2.2 高级分组与聚合三、时间序列数据处理3.1 高级时间序列操作一、高级数据加载与预处理1.1 高效读取大文件pythonimport pandas as pd import numpy as np from pathlib import Path # 分块读取大文件 def read_large_file_in_chunks(filepath, chunk_size10000): 分块读取大文件节省内存 chunks [] for chunk in pd.read_csv(filepath, chunksizechunk_size, low_memoryFalse): # 在读取时进行初步处理 chunk chunk.dropna(subset[important_column]) chunks.append(chunk) return pd.concat(chunks, ignore_indexTrue) # 指定数据类型以减少内存使用 dtype_mapping { user_id: int32, price: float32, category: category, date: str } df pd.read_csv(large_data.csv, dtypedtype_mapping, parse_dates[date])1.2 处理缺失值的进阶技巧python# 创建示例数据 df pd.DataFrame({ A: [1, 2, np.nan, 4, 5], B: [np.nan, 2, 3, np.nan, 5], C: [1, np.nan, np.nan, np.nan, 5], D: [a, b, None, d, e] }) # 1. 基于统计的填充 df[A_filled] df[A].fillna(df[A].mean()) df[B_filled] df[B].fillna(df[B].median()) # 2. 前向/后向填充时间序列 df[C_ffill] df[C].ffill() # 前向填充 df[C_bfill] df[C].bfill() # 后向填充 # 3. 插值法填充 df[A_interpolated] df[A].interpolate(methodlinear) # 4. 使用模型预测填充简单示例 from sklearn.ensemble import RandomForestRegressor def model_based_imputation(df, target_col): 使用随机森林预测缺失值 # 分离有值和无值的数据 df_train df[df[target_col].notna()] df_missing df[df[target_col].isna()] if len(df_missing) 0: return df # 准备特征排除目标列和其他高缺失率列 features [col for col in df.columns if col ! target_col and df[col].notna().sum() len(df)*0.7] X_train df_train[features] y_train df_train[target_col] X_missing df_missing[features] # 训练模型并预测 model RandomForestRegressor(n_estimators100, random_state42) model.fit(X_train, y_train) predictions model.predict(X_missing) # 填充预测值 df.loc[df[target_col].isna(), target_col] predictions return df # 5. 创建缺失值指示器 df[A_is_missing] df[A].isna().astype(int)二、高效数据转换与计算2.1 向量化操作与性能优化pythonimport pandas as pd import numpy as np from numba import jit import swifter # pip install swifter # 创建测试数据 np.random.seed(42) df pd.DataFrame({ x: np.random.randn(1000000), y: np.random.randn(1000000), category: np.random.choice([A, B, C], 1000000) }) # 1. 避免循环使用向量化操作 # ❌ 慢使用循环 def slow_calculation(df): result [] for i in range(len(df)): result.append(df[x].iloc[i] ** 2 df[y].iloc[i] ** 2) return result # ✅ 快使用向量化 df[vectorized] df[x] ** 2 df[y] ** 2 # 2. 使用Numba加速针对复杂计算 jit(nopythonTrue) def numba_calc(x, y): n len(x) result np.zeros(n) for i in range(n): result[i] np.sqrt(x[i]**2 y[i]**2) return result df[numba_calc] numba_calc(df[x].values, df[y].values) # 3. 使用swifter自动选择最佳计算方式 df[swifter_calc] df.swifter.apply(lambda row: row[x] * row[y], axis1) # 4. 内存优化技巧 def optimize_memory(df): 优化DataFrame内存使用 start_mem df.memory_usage().sum() / 1024**2 for col in df.columns: col_type df[col].dtype if col_type ! object: c_min df[col].min() c_max df[col].max() if str(col_type)[:3] int: if c_min np.iinfo(np.int8).min and c_max np.iinfo(np.int8).max: df[col] df[col].astype(np.int8) elif c_min np.iinfo(np.int16).min and c_max np.iinfo(np.int16).max: df[col] df[col].astype(np.int16) elif c_min np.iinfo(np.int32).min and c_max np.iinfo(np.int32).max: df[col] df[col].astype(np.int32) else: df[col] df[col].astype(np.int64) else: if c_min np.finfo(np.float16).min and c_max np.finfo(np.float16).max: df[col] df[col].astype(np.float16) elif c_min np.finfo(np.float32).min and c_max np.finfo(np.float32).max: df[col] df[col].astype(np.float32) else: df[col] df[col].astype(np.float64) else: # 对象类型转换为分类数据 unique_count df[col].nunique() total_count len(df[col]) if unique_count / total_count 0.5: df[col] df[col].astype(category) end_mem df.memory_usage().sum() / 1024**2 print(f内存使用减少: {100 * (start_mem - end_mem) / start_mem:.1f}%) return df df optimize_memory(df)2.2 高级分组与聚合python# 创建示例数据 sales_data pd.DataFrame({ date: pd.date_range(2023-01-01, 2023-12-31, freqD), region: np.random.choice([North, South, East, West], 365), product: np.random.choice([A, B, C, D], 365), sales: np.random.randint(100, 1000, 365), customers: np.random.randint(10, 100, 365) }) # 1. 多级分组聚合 grouped sales_data.groupby([region, product]).agg({ sales: [sum, mean, std, count], customers: [sum, lambda x: x.quantile(0.8)] # 自定义聚合 }) # 重命名列 grouped.columns [_.join(col).strip() for col in grouped.columns.values] # 2. 使用transform进行组内标准化 sales_data[sales_normalized] sales_data.groupby(region)[sales].transform( lambda x: (x - x.mean()) / x.std() ) # 3. 使用filter筛选分组 high_sales_regions sales_data.groupby(region).filter( lambda x: x[sales].sum() 100000 ) # 4. 分组应用复杂函数 def calculate_metrics(group): 计算分组的多维度指标 result pd.Series({ total_sales: group[sales].sum(), avg_sale_per_customer: group[sales].sum() / group[customers].sum(), peak_day: group.loc[group[sales].idxmax(), date], sales_growth: (group[sales].iloc[-1] - group[sales].iloc[0]) / group[sales].iloc[0] if len(group) 1 else 0, unique_products: group[product].nunique() }) return result region_metrics sales_data.groupby(region).apply(calculate_metrics) # 5. 滚动窗口分组计算 sales_data[rolling_7d_sales] sales_data.groupby(region)[sales].transform( lambda x: x.rolling(window7, min_periods1).mean() )三、时间序列数据处理3.1 高级时间序列操作python# 创建时间序列数据 date_rng pd.date_range(2023-01-01, 2023-12-31, freqH) ts_data pd.DataFrame(date_rng, columns[timestamp]) ts_data[value] np.random.randn(len(date_rng)) * 10 50 ts_data[category] np.random.choice([A, B, C], len(date_rng)) # 设置为索引 ts_data ts_data.set_index(timestamp) # 1. 重采样与降采样 # 按天重采样计算每天的平均值 daily_data ts_data[value].resample(D).agg([mean, min, max, std]) # 按周重采样计算每周总和 weekly_data ts_data[value].resample(W-MON).sum() # 2. 滚动窗口统计 ts_data[7d_rolling_mean] ts_data[value].rolling(window7*24).mean() # 7天滚动平均 ts_data[24h_rolling_std] ts_data[value].rolling(window24).std() # 24小时滚动标准差 # 3. 扩展窗口累计统计 ts_data[expanding_mean] ts_data[value].expanding().mean() ts_data[expanding_max] ts_data[value].expanding().max() # 4. 时间序列分解趋势、季节性、残差 from statsmodels.tsa.seasonal import seasonal_decompose # 需要按天或按月的数据 daily_series ts_data[value].resample(D).mean() decomposition seasonal_decompose(daily_series.dropna(), modeladditive, period30) # 5. 时间序列特征工程 def create_time_features(df, datetime_index): 创建时间相关特征 df df.copy() df[hour] datetime_index.hour df[dayofweek] datetime_index.dayofweek df[quarter] datetime_index.quarter df[month] datetime_index.month df[year] datetime_index.year df[dayofyear] datetime_index.dayofyear df[weekofyear] datetime_index.isocalendar().week # 是否是周末 df[is_weekend] datetime_index.dayofweek 5 # 时间周期特征 df[sin_hour] np.sin(2 * np.pi * df[hour]/24) df[cos_hour] np.cos(2 * np.pi * df[hour]/24) return df ts_data create_time_features(ts_data, ts_data.index) # 6. 滞后特征lag features for lag in [1, 2, 3, 7, 30]: ts_data[flag_{lag}_hour] ts_data[value].shift(lag) # 7. 滑动窗口统计特征 ts_data[rolling_mean_6h] ts_data[value].rolling(6h).mean() ts_data[rolling_std_12h] ts_data[value].rolling(12h).std() ts_data[rolling_max_24h] ts_data[value].rolling(24h).max()最佳实践1、需要根据数据规模和使用对象选择合适的写出格式小规模、通用性交换可选 CSV大规模分析型数据应使用 Parquet而涉及人工核对时才使用 Excel。2、在写出前应明确数据的使用场景并对关键字段、异常值和重复记录进行必要检查避免将问题数据固化到生产系统中。同时要特别注意索引的持久化、时间索引的时区信息保留以及缺失值的统一表示方式确保数据在不同环境和系统中读取结果一致。3、通过合理的命名、版本控制和元信息记录保证数据结果可追溯、可复现从而满足生产环境对数据“可上线、可维护、可回滚”的基本要求。
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

苏州网站建设seo网站金融模版

高效管理Windows系统:脚本助力用户与系统信息处理 在Windows系统管理中,如何高效地管理用户账户和收集系统信息是管理员经常面临的重要任务。本文将为你介绍几个实用的脚本,帮助你更轻松地完成这些任务。 1. 查找不活跃用户 在企业环境中,可能存在许多员工离职后但账户未…

张小明 2026/1/22 14:47:20 网站建设

北京做兼职从哪个网站好煤炭建设协会官方网站

还在为那些顽固的应用程序窗口而烦恼吗?有些软件就像被施了魔法一样,窗口尺寸固定不变,让你在多任务处理时手忙脚乱。WindowResizer这款智能窗口管理工具将彻底改变你的工作方式,让每个窗口都能完美适配你的使用需求。 【免费下载…

张小明 2026/1/22 14:46:49 网站建设

宝安网站推广平台原创设计

Krea AI推出140亿参数的实时视频生成模型Krea Realtime 14B,在单张NVIDIA B200 GPU上实现11fps的文本到视频推理速度,标志着AI视频生成迈入实时交互时代。 【免费下载链接】krea-realtime-video 项目地址: https://ai.gitcode.com/hf_mirrors/krea/kr…

张小明 2026/1/22 14:46:18 网站建设

快手作品推广网站培训方案模板

SoundCloud音乐下载神器:打造个人专属音乐宝库的完整方案 【免费下载链接】scdl Soundcloud Music Downloader 项目地址: https://gitcode.com/gh_mirrors/sc/scdl 音乐资源管理新体验 还在为SoundCloud上的优质音乐无法离线收听而烦恼吗?这款基…

张小明 2026/1/22 14:45:47 网站建设

客栈网站建设花瓣网是仿国外那个网站做的

多数据源监控完整指南:Spring Boot Admin实战配置 【免费下载链接】dynamic-datasource dynamic datasource for springboot 多数据源 动态数据源 主从分离 读写分离 分布式事务 项目地址: https://gitcode.com/gh_mirrors/dy/dynamic-datasource 多数据源监…

张小明 2026/1/22 14:45:16 网站建设