code_search_net_process / code-data.py
Sheerio's picture
Upload code-data.py
8a438e7 verified
from datasets import load_dataset
import pandas as pd
import pyarrow as pa
import pyarrow.parquet as pq
import json
# 加载 CodeSearchNet 数据集
dataset = load_dataset('code_search_net', 'python') # 可以替换 'python' 为 'java', 'cpp' 等其他语言
# 查看数据集的字段结构
print(dataset['train'][0]) # 打印训练集的第一个样本,查看字段名
# 分词并按固定词长切分代码
def split_code_into_chunks(code, chunk_length):
"""将代码按空格分词,并按指定长度切分成多个块"""
words = code.split() # 按空格分词
chunks = []
# 将分词后的代码按指定长度切分
for i in range(0, len(words), chunk_length):
chunk = words[i:i + chunk_length]
chunks.append(' '.join(chunk)) # 将切分后的词块连接成一个新的片段
return chunks
# 对整个数据集进行切分
def split_code_samples(dataset, chunk_length=32):
"""对数据集中的每个样本进行切分"""
chunks = []
for item in dataset:
# 字段名是 'func_code_string'
code = item['func_code_string']
# 分词并按 chunk_length 切分
code_chunks = split_code_into_chunks(code, chunk_length)
chunks.extend(code_chunks)
return chunks
# 对整个训练数据集生成 32 词、64 词、128 词、256词长的片段
code_chunks_32 = split_code_samples(dataset['train'], chunk_length=32)
code_chunks_64 = split_code_samples(dataset['train'], chunk_length=64)
code_chunks_128 = split_code_samples(dataset['train'], chunk_length=128)
code_chunks_256 = split_code_samples(dataset['train'], chunk_length=256)
# 将数据保存为 Parquet 文件
def save_to_parquet(data, filename):
# 使用 pandas 创建 DataFrame
df = pd.DataFrame(data, columns=["code"])
# 将 DataFrame 转换为 Parquet 格式
df.to_parquet(filename, engine='pyarrow', compression='snappy')
print(f"Saved {filename} as Parquet file.")
# 保存为 Parquet 文件
save_to_parquet(code_chunks_32, "code_chunks_32.parquet")
save_to_parquet(code_chunks_64, "code_chunks_64.parquet")
save_to_parquet(code_chunks_128, "code_chunks_128.parquet")
save_to_parquet(code_chunks_256, "code_chunks_256.parquet")