Jun, 2024

自构建上下文解构,并进行细粒度对齐增强

TL;DR该研究论文提出了两种方法:自构建上下文反编译(sc$^2$dec)方法在没有微调的情况下重新编译 LLM 的反编译结果,以构造上下文学习对,帮助模型提高反编译性能;细粒度对齐增强(FAE)方法通过利用调试信息,在微调阶段将汇编代码与源代码在语句级别进行精确对齐,进一步提高反编译性能。集成这两种方法后,在 Decompile-Eval 基准测试上实现了约 7.35%的 Re-Exe(再执行性能)提升,建立了 55.03%的最新最佳性能水平。