from datasets import load_dataset import pandas as pd import pyarrow as pa import pyarrow.parquet as pq import json # 加载 CodeSearchNet 数据集 dataset = load_dataset('code_search_net', 'python') # 可以替换 'python' 为 'java', 'cpp' 等其他语言 # 查看数据集的字段结构 print(dataset['train'][0]) # 打印训练集的第一个样本,查看字段名 # 分词并按固定词长切分代码 def split_code_into_chunks(code, chunk_length): """将代码按空格分词,并按指定长度切分成多个块""" words = code.split() # 按空格分词 chunks = [] # 将分词后的代码按指定长度切分 for i in range(0, len(words), chunk_length): chunk = words[i:i + chunk_length] chunks.append(' '.join(chunk)) # 将切分后的词块连接成一个新的片段 return chunks # 对整个数据集进行切分 def split_code_samples(dataset, chunk_length=32): """对数据集中的每个样本进行切分""" chunks = [] for item in dataset: # 字段名是 'func_code_string' code = item['func_code_string'] # 分词并按 chunk_length 切分 code_chunks = split_code_into_chunks(code, chunk_length) chunks.extend(code_chunks) return chunks # 对整个训练数据集生成 32 词、64 词、128 词、256词长的片段 code_chunks_32 = split_code_samples(dataset['train'], chunk_length=32) code_chunks_64 = split_code_samples(dataset['train'], chunk_length=64) code_chunks_128 = split_code_samples(dataset['train'], chunk_length=128) code_chunks_256 = split_code_samples(dataset['train'], chunk_length=256) # 将数据保存为 Parquet 文件 def save_to_parquet(data, filename): # 使用 pandas 创建 DataFrame df = pd.DataFrame(data, columns=["code"]) # 将 DataFrame 转换为 Parquet 格式 df.to_parquet(filename, engine='pyarrow', compression='snappy') print(f"Saved {filename} as Parquet file.") # 保存为 Parquet 文件 save_to_parquet(code_chunks_32, "code_chunks_32.parquet") save_to_parquet(code_chunks_64, "code_chunks_64.parquet") save_to_parquet(code_chunks_128, "code_chunks_128.parquet") save_to_parquet(code_chunks_256, "code_chunks_256.parquet")