diff kf_bfly4.S @ 12:655dc5c14169

backup
author Peter Meerwald <p.meerwald@bct-electronic.com>
date Thu, 22 Sep 2011 16:58:25 +0200
parents abdcde012978
children
line wrap: on
line diff
--- a/kf_bfly4.S	Thu Sep 22 15:19:18 2011 +0200
+++ b/kf_bfly4.S	Thu Sep 22 16:58:25 2011 +0200
@@ -36,13 +36,13 @@
 	mov	r6, ip
 .inverse_loop:
     // C_MUL(scratch[0], Fout[m], *tw1);
-    vld1.32     {d18,d19}, [r5]
-    vld1.32     {d16,d17}, [ip]
+    vld1.32     {d18,d19}, [r5,:64]
+    vld1.32     {d16,d17}, [ip,:64]
 	vmul.f32	d20, d18, d16
 	vmul.f32	d21, d16, d19
         // load Fout[m2], *tw2
-        vld1.32     {d14,d15}, [r4]
-        vld1.32     {d12,d13}, [r6]
+        vld1.32     {d14,d15}, [r4,:64]
+        vld1.32     {d12,d13}, [r6,:64]
 	vmls.f32	d20, d19, d17
 	vmla.f32	d21, d18, d17
 	
@@ -50,8 +50,8 @@
 	vmul.f32	d22, d14, d12
 	vmul.f32	d23, d12, d15
         // load Fout[m3], *tw3
-        vld1.32     {d18,d19}, [r0]
-        vld1.32     {d16,d17}, [sl]
+        vld1.32     {d18,d19}, [r0,:64]
+        vld1.32     {d16,d17}, [sl,:64]
 	vmls.f32	d22, d15, d13
 	vmla.f32	d23, d14, d13
 
@@ -60,7 +60,7 @@
 	vmul.f32	d25, d16, d19
 	
     // C_SUB(scratch[1], *Fout, scratch[3]);
-    vld1.32     {d14,d15}, [r2]
+    vld1.32     {d14,d15}, [r2,:64]
     vsub.f32   q13, q7, q11
 
 	vmls.f32	d24, d19, d17
@@ -70,15 +70,15 @@
     vadd.f32   q7, q7, q11
         // C_ADD(scratch[3], scratch[0], scratch[2]);
         vadd.f32   q11, q10, q12
-	vst1.32     {d16,d17}, [r2]
+	vst1.32     {d16,d17}, [r2,:64]
 	
     // C_SUB(Fout[m2], *Fout, scratch[3]);
     vsub.f32   q9, q7, q11
-    vst1.32     {d18,d19}, [r4]!
+    vst1.32     {d18,d19}, [r4,:64]!
     
     // C_ADDTO(*Fout, scratch[3]);
     vadd.f32   q7, q7, q11
-    vst1.32     {d14,d15}, [r2]!
+    vst1.32     {d14,d15}, [r2,:64]!
 
 	add	ip, ip, r8
 	add	r6, r6, r7
@@ -91,13 +91,13 @@
     // Fout[m].i = scratch[1].i + scratch[3].r;
     vsub.f32    d18, d26, d23
     vadd.f32    d19, d27, d22
-    vst1.32     {d18,d19}, [r5]!
+    vst1.32     {d18,d19}, [r5,:64]!
     
     // Fout[m3].r = scratch[1].r + scratch[3].i;
     // Fout[m3].i = scratch[1].i - scratch[3].r;
     vadd.f32    d18, d26, d23
     vsub.f32    d19, d27, d22
-    vst1.32     {d18,d19}, [r0]!
+    vst1.32     {d18,d19}, [r0,:64]!
 
 	subs	r3, r3, #1
 	bne	.inverse_loop
@@ -108,13 +108,13 @@
 	mov	r6, ip
 .forward_loop:
     // C_MUL(scratch[0], Fout[m], *tw1);
-    vld1.32     {d18,d19}, [r5]
-    vld1.32     {d16,d17}, [ip]
+    vld1.32     {d18,d19}, [r5,:64]
+    vld1.32     {d16,d17}, [ip,:64]
 	vmul.f32	d20, d18, d16
 	vmul.f32	d21, d16, d19
         // load Fout[m2], *tw2
-        vld1.32     {d14,d15}, [r4]
-        vld1.32     {d12,d13}, [r6]
+        vld1.32     {d14,d15}, [r4,:64]
+        vld1.32     {d12,d13}, [r6,:64]
 	vmls.f32	d20, d19, d17
 	vmla.f32	d21, d18, d17
 	
@@ -122,8 +122,8 @@
 	vmul.f32	d22, d14, d12
 	vmul.f32	d23, d12, d15
         // load Fout[m3], *tw3
-        vld1.32     {d18,d19}, [r0]
-        vld1.32     {d16,d17}, [sl]
+        vld1.32     {d18,d19}, [r0,:64]
+        vld1.32     {d16,d17}, [sl,:64]
 	vmls.f32	d22, d15, d13
 	vmla.f32	d23, d14, d13
 
@@ -132,7 +132,7 @@
 	vmul.f32	d25, d16, d19
 	
     // C_SUB(scratch[1], *Fout, scratch[3]);
-    vld1.32     {d14,d15}, [r2]
+    vld1.32     {d14,d15}, [r2,:64]
     vsub.f32   q13, q7, q11
 
 	vmls.f32	d24, d19, d17
@@ -142,15 +142,15 @@
     vadd.f32   q7, q7, q11
         // C_ADD(scratch[3], scratch[0], scratch[2]);
         vadd.f32   q11, q10, q12
-	vst1.32     {d16,d17}, [r2]
+	vst1.32     {d16,d17}, [r2,:64]
 	
     // C_SUB(Fout[m2], *Fout, scratch[3]);
     vsub.f32   q9, q7, q11
-    vst1.32     {d18,d19}, [r4]!
+    vst1.32     {d18,d19}, [r4,:64]!
     
     // C_ADDTO(*Fout, scratch[3]);
     vadd.f32   q7, q7, q11
-    vst1.32     {d14,d15}, [r2]!
+    vst1.32     {d14,d15}, [r2,:64]!
 
 	add	ip, ip, r8
 	add	r6, r6, r7
@@ -163,13 +163,13 @@
     // Fout[m].i = scratch[1].i + scratch[3].r;
     vadd.f32    d18, d26, d23
     vsub.f32    d19, d27, d22
-    vst1.32     {d18,d19}, [r5]!
+    vst1.32     {d18,d19}, [r5,:64]!
     
     // Fout[m3].r = scratch[1].r + scratch[3].i;
     // Fout[m3].i = scratch[1].i - scratch[3].r;
     vsub.f32    d18, d26, d23
     vadd.f32    d19, d27, d22
-    vst1.32     {d18,d19}, [r0]!
+    vst1.32     {d18,d19}, [r0,:64]!
 
 	subs	r3, r3, #1
 	bne	.forward_loop

Repositories maintained by Peter Meerwald, pmeerw@pmeerw.net.