Mercurial > hg > peckfft
diff kf_bfly4.S @ 12:655dc5c14169
backup
author | Peter Meerwald <p.meerwald@bct-electronic.com> |
---|---|
date | Thu, 22 Sep 2011 16:58:25 +0200 |
parents | abdcde012978 |
children |
line wrap: on
line diff
--- a/kf_bfly4.S Thu Sep 22 15:19:18 2011 +0200 +++ b/kf_bfly4.S Thu Sep 22 16:58:25 2011 +0200 @@ -36,13 +36,13 @@ mov r6, ip .inverse_loop: // C_MUL(scratch[0], Fout[m], *tw1); - vld1.32 {d18,d19}, [r5] - vld1.32 {d16,d17}, [ip] + vld1.32 {d18,d19}, [r5,:64] + vld1.32 {d16,d17}, [ip,:64] vmul.f32 d20, d18, d16 vmul.f32 d21, d16, d19 // load Fout[m2], *tw2 - vld1.32 {d14,d15}, [r4] - vld1.32 {d12,d13}, [r6] + vld1.32 {d14,d15}, [r4,:64] + vld1.32 {d12,d13}, [r6,:64] vmls.f32 d20, d19, d17 vmla.f32 d21, d18, d17 @@ -50,8 +50,8 @@ vmul.f32 d22, d14, d12 vmul.f32 d23, d12, d15 // load Fout[m3], *tw3 - vld1.32 {d18,d19}, [r0] - vld1.32 {d16,d17}, [sl] + vld1.32 {d18,d19}, [r0,:64] + vld1.32 {d16,d17}, [sl,:64] vmls.f32 d22, d15, d13 vmla.f32 d23, d14, d13 @@ -60,7 +60,7 @@ vmul.f32 d25, d16, d19 // C_SUB(scratch[1], *Fout, scratch[3]); - vld1.32 {d14,d15}, [r2] + vld1.32 {d14,d15}, [r2,:64] vsub.f32 q13, q7, q11 vmls.f32 d24, d19, d17 @@ -70,15 +70,15 @@ vadd.f32 q7, q7, q11 // C_ADD(scratch[3], scratch[0], scratch[2]); vadd.f32 q11, q10, q12 - vst1.32 {d16,d17}, [r2] + vst1.32 {d16,d17}, [r2,:64] // C_SUB(Fout[m2], *Fout, scratch[3]); vsub.f32 q9, q7, q11 - vst1.32 {d18,d19}, [r4]! + vst1.32 {d18,d19}, [r4,:64]! // C_ADDTO(*Fout, scratch[3]); vadd.f32 q7, q7, q11 - vst1.32 {d14,d15}, [r2]! + vst1.32 {d14,d15}, [r2,:64]! add ip, ip, r8 add r6, r6, r7 @@ -91,13 +91,13 @@ // Fout[m].i = scratch[1].i + scratch[3].r; vsub.f32 d18, d26, d23 vadd.f32 d19, d27, d22 - vst1.32 {d18,d19}, [r5]! + vst1.32 {d18,d19}, [r5,:64]! // Fout[m3].r = scratch[1].r + scratch[3].i; // Fout[m3].i = scratch[1].i - scratch[3].r; vadd.f32 d18, d26, d23 vsub.f32 d19, d27, d22 - vst1.32 {d18,d19}, [r0]! + vst1.32 {d18,d19}, [r0,:64]! subs r3, r3, #1 bne .inverse_loop @@ -108,13 +108,13 @@ mov r6, ip .forward_loop: // C_MUL(scratch[0], Fout[m], *tw1); - vld1.32 {d18,d19}, [r5] - vld1.32 {d16,d17}, [ip] + vld1.32 {d18,d19}, [r5,:64] + vld1.32 {d16,d17}, [ip,:64] vmul.f32 d20, d18, d16 vmul.f32 d21, d16, d19 // load Fout[m2], *tw2 - vld1.32 {d14,d15}, [r4] - vld1.32 {d12,d13}, [r6] + vld1.32 {d14,d15}, [r4,:64] + vld1.32 {d12,d13}, [r6,:64] vmls.f32 d20, d19, d17 vmla.f32 d21, d18, d17 @@ -122,8 +122,8 @@ vmul.f32 d22, d14, d12 vmul.f32 d23, d12, d15 // load Fout[m3], *tw3 - vld1.32 {d18,d19}, [r0] - vld1.32 {d16,d17}, [sl] + vld1.32 {d18,d19}, [r0,:64] + vld1.32 {d16,d17}, [sl,:64] vmls.f32 d22, d15, d13 vmla.f32 d23, d14, d13 @@ -132,7 +132,7 @@ vmul.f32 d25, d16, d19 // C_SUB(scratch[1], *Fout, scratch[3]); - vld1.32 {d14,d15}, [r2] + vld1.32 {d14,d15}, [r2,:64] vsub.f32 q13, q7, q11 vmls.f32 d24, d19, d17 @@ -142,15 +142,15 @@ vadd.f32 q7, q7, q11 // C_ADD(scratch[3], scratch[0], scratch[2]); vadd.f32 q11, q10, q12 - vst1.32 {d16,d17}, [r2] + vst1.32 {d16,d17}, [r2,:64] // C_SUB(Fout[m2], *Fout, scratch[3]); vsub.f32 q9, q7, q11 - vst1.32 {d18,d19}, [r4]! + vst1.32 {d18,d19}, [r4,:64]! // C_ADDTO(*Fout, scratch[3]); vadd.f32 q7, q7, q11 - vst1.32 {d14,d15}, [r2]! + vst1.32 {d14,d15}, [r2,:64]! add ip, ip, r8 add r6, r6, r7 @@ -163,13 +163,13 @@ // Fout[m].i = scratch[1].i + scratch[3].r; vadd.f32 d18, d26, d23 vsub.f32 d19, d27, d22 - vst1.32 {d18,d19}, [r5]! + vst1.32 {d18,d19}, [r5,:64]! // Fout[m3].r = scratch[1].r + scratch[3].i; // Fout[m3].i = scratch[1].i - scratch[3].r; vsub.f32 d18, d26, d23 vadd.f32 d19, d27, d22 - vst1.32 {d18,d19}, [r0]! + vst1.32 {d18,d19}, [r0,:64]! subs r3, r3, #1 bne .forward_loop