looper/subprojects/mpg123/src/libmpg123/dct64_neon_float.S
2024-09-28 10:31:18 -07:00

283 lines
5.6 KiB
ArmAsm

/*
dct64_neon_float: ARM NEON optimized dct64 (float output version)
copyright 1995-2010 by the mpg123 project - free software under the terms of the LGPL 2.1
see COPYING and AUTHORS files in distribution or http://mpg123.org
initially written by Taihei Monma
*/
#include "mangle.h"
#ifndef _M_ARM
.code 32
#endif
#ifndef __APPLE__
.fpu neon
#endif
.text
ALIGN16
costab_arm:
.word 1056974725
.word 1057056395
.word 1057223771
.word 1057485416
.word 1057855544
.word 1058356026
.word 1059019886
.word 1059897405
.word 1061067246
.word 1062657950
.word 1064892987
.word 1066774581
.word 1069414683
.word 1073984175
.word 1079645762
.word 1092815430
.word 1057005197
.word 1057342072
.word 1058087743
.word 1059427869
.word 1061799040
.word 1065862217
.word 1071413542
.word 1084439708
.word 1057128951
.word 1058664893
.word 1063675095
.word 1076102863
.word 1057655764
.word 1067924853
.word 1060439283
.word 1060439283
ALIGN4
GLOBAL_SYMBOL ASM_NAME(INT123_dct64_real_neon)
#ifdef __ELF__
.type ASM_NAME(INT123_dct64_real_neon), %function
#endif
ASM_NAME(INT123_dct64_real_neon):
vpush {q4-q7}
adr r3, costab_arm
vld1.32 {q0, q1}, [r2]!
vld1.32 {q2, q3}, [r2]!
vld1.32 {q4, q5}, [r2]!
vld1.32 {q6, q7}, [r2]
vld1.32 {q12, q13}, [r3, :128]!
vld1.32 {q14, q15}, [r3, :128]!
vrev64.32 q4, q4
vrev64.32 q5, q5
vrev64.32 q6, q6
vrev64.32 q7, q7
vswp d8, d9
vswp d10, d11
vswp d12, d13
vswp d14, d15
vsub.f32 q8, q0, q7
vsub.f32 q9, q1, q6
vsub.f32 q10, q2, q5
vsub.f32 q11, q3, q4
vadd.f32 q0, q0, q7
vadd.f32 q1, q1, q6
vadd.f32 q2, q2, q5
vadd.f32 q3, q3, q4
vmul.f32 q4, q8, q12
vmul.f32 q5, q9, q13
vmul.f32 q6, q10, q14
vmul.f32 q7, q11, q15
vld1.32 {q12, q13}, [r3, :128]!
vld1.32 {q14, q15}, [r3, :128]
vrev64.32 q2, q2
vrev64.32 q3, q3
vrev64.32 q6, q6
vrev64.32 q7, q7
vswp d4, d5
vswp d6, d7
vswp d12, d13
vswp d14, d15
vsub.f32 q8, q0, q3
vsub.f32 q9, q1, q2
vsub.f32 q10, q4, q7
vsub.f32 q11, q5, q6
vadd.f32 q0, q0, q3
vadd.f32 q1, q1, q2
vadd.f32 q4, q4, q7
vadd.f32 q5, q5, q6
vmul.f32 q2, q8, q12
vmul.f32 q3, q9, q13
vmul.f32 q6, q10, q12
vmul.f32 q7, q11, q13
vrev64.32 q1, q1
vrev64.32 q3, q3
vrev64.32 q5, q5
vrev64.32 q7, q7
vswp d2, d3
vswp d6, d7
vswp d10, d11
vswp d14, d15
vsub.f32 q8, q0, q1
vsub.f32 q9, q2, q3
vsub.f32 q10, q4, q5
vsub.f32 q11, q6, q7
vadd.f32 q0, q0, q1
vadd.f32 q2, q2, q3
vadd.f32 q4, q4, q5
vadd.f32 q6, q6, q7
vmul.f32 q1, q8, q14
vmul.f32 q3, q9, q14
vmul.f32 q5, q10, q14
vmul.f32 q7, q11, q14
vdup.32 q12, d31[0]
vmov d31, d30
vswp d1, d2
vswp d5, d6
vswp d9, d10
vswp d13, d14
vrev64.32 q1, q1
vrev64.32 q3, q3
vrev64.32 q5, q5
vrev64.32 q7, q7
vsub.f32 q8, q0, q1
vsub.f32 q9, q2, q3
vsub.f32 q10, q4, q5
vsub.f32 q11, q6, q7
vadd.f32 q0, q0, q1
vadd.f32 q2, q2, q3
vadd.f32 q4, q4, q5
vadd.f32 q6, q6, q7
vmul.f32 q1, q8, q15
vmul.f32 q3, q9, q15
vmul.f32 q5, q10, q15
vmul.f32 q7, q11, q15
vtrn.32 q0, q1
vtrn.32 q2, q3
vtrn.32 q4, q5
vtrn.32 q6, q7
vsub.f32 q8, q0, q1
vsub.f32 q9, q2, q3
vsub.f32 q10, q4, q5
vsub.f32 q11, q6, q7
vadd.f32 q0, q0, q1
vadd.f32 q2, q2, q3
vadd.f32 q4, q4, q5
vadd.f32 q6, q6, q7
vmul.f32 q1, q8, q12
vmul.f32 q3, q9, q12
vmul.f32 q5, q10, q12
vmul.f32 q7, q11, q12
vtrn.32 q0, q1
vtrn.32 q2, q3
vtrn.32 q4, q5
vtrn.32 q6, q7
vswp d1, d2
vswp d5, d6
vswp d9, d10
vswp d13, d14
vshr.u64 d16, d1, #32
vshr.u64 d17, d3, #32
vshr.u64 d18, d5, #32
vshr.u64 d19, d7, #32
vadd.f32 d1, d1, d16
vadd.f32 d3, d3, d17
vadd.f32 d5, d5, d18
vadd.f32 d7, d7, d19
vshr.u64 d20, d9, #32
vshr.u64 d21, d11, #32
vshr.u64 d22, d13, #32
vshr.u64 d23, d15, #32
vadd.f32 d9, d9, d20
vadd.f32 d11, d11, d21
vadd.f32 d13, d13, d22
vadd.f32 d15, d15, d23
vshr.u64 d16, d2, #32
vshr.u64 d18, d6, #32
vshr.u64 d20, d10, #32
vshr.u64 d22, d14, #32
vext.8 q8, q1, q8, #8
vext.8 q9, q3, q9, #8
vext.8 q10, q5, q10, #8
vext.8 q11, q7, q11, #8
vadd.f32 q1, q1, q8
vadd.f32 q3, q3, q9
vadd.f32 q5, q5, q10
vadd.f32 q7, q7, q11
vshr.u64 d16, d4, #32
vshr.u64 d18, d12, #32
vext.8 q8, q2, q8, #8
vext.8 q9, q6, q9, #8
vadd.f32 q2, q2, q3
vadd.f32 q6, q6, q7
vadd.f32 q3, q3, q8
vadd.f32 q7, q7, q9
vrev64.32 q8, q4
vshr.u64 d19, d9, #32
vext.8 d17, d17, d16, #4
vswp d9, d10
vswp d13, d14
vtrn.32 q4, q5
vtrn.32 q6, q7
vmov d16, d9
vmov d18, d11
vadd.f32 q4, q6
vadd.f32 q5, q7
vadd.f32 q6, q8
vadd.f32 q7, q9
mov r3, #64
vst1.32 {d0[1]}, [r0, :32], r3
vst1.32 {d13[1]}, [r0, :32], r3
vst1.32 {d7[0]}, [r0, :32], r3
vst1.32 {d9[1]}, [r0, :32], r3
vst1.32 {d3[0]}, [r0, :32], r3
vst1.32 {d12[1]}, [r0, :32], r3
vst1.32 {d5[0]}, [r0, :32], r3
vst1.32 {d8[1]}, [r0, :32], r3
vst1.32 {d1[0]}, [r0, :32], r3
vst1.32 {d13[0]}, [r0, :32], r3
vst1.32 {d6[0]}, [r0, :32], r3
vst1.32 {d9[0]}, [r0, :32], r3
vst1.32 {d2[0]}, [r0, :32], r3
vst1.32 {d12[0]}, [r0, :32], r3
vst1.32 {d4[0]}, [r0, :32], r3
vst1.32 {d8[0]}, [r0, :32], r3
vst1.32 {d0[0]}, [r0, :32]
vst1.32 {d0[1]}, [r1, :32], r3
vst1.32 {d10[0]}, [r1, :32], r3
vst1.32 {d4[1]}, [r1, :32], r3
vst1.32 {d14[0]}, [r1, :32], r3
vst1.32 {d2[1]}, [r1, :32], r3
vst1.32 {d11[0]}, [r1, :32], r3
vst1.32 {d6[1]}, [r1, :32], r3
vst1.32 {d15[0]}, [r1, :32], r3
vst1.32 {d1[1]}, [r1, :32], r3
vst1.32 {d10[1]}, [r1, :32], r3
vst1.32 {d5[1]}, [r1, :32], r3
vst1.32 {d14[1]}, [r1, :32], r3
vst1.32 {d3[1]}, [r1, :32], r3
vst1.32 {d11[1]}, [r1, :32], r3
vst1.32 {d7[1]}, [r1, :32], r3
vst1.32 {d15[1]}, [r1, :32]
vpop {q4-q7}
bx lr
NONEXEC_STACK