25                         const float *
src0, 
const float *
src1,
 
   30     for (i = 0; i < len - 7; i += 8) {
 
   31         d0 = vec_vsx_ld( 0, src0 + i);
 
   32         d1 = vec_vsx_ld(16, src0 + i);
 
   33         d0 = vec_madd(d0, vec_vsx_ld( 0, src1 + i), zero);
 
   34         d1 = vec_madd(d1, vec_vsx_ld(16, src1 + i), zero);
 
   35         vec_vsx_st(d0,  0, dst + i);
 
   36         vec_vsx_st(d1, 16, dst + i);
 
   41                                const float *
src1, 
const float *win,
 
   45     const vec_u8 reverse = vcprm(3, 2, 1, 0);
 
   52     zero = (
vec_f)vec_splat_u32(0);
 
   54     for (i = -len * 4, j = len * 4 - 16; i < 0; i += 16, j -= 16) {
 
   55         s0 = vec_vsx_ld(i, src0);
 
   56         s1 = vec_vsx_ld(j, src1);
 
   57         wi = vec_vsx_ld(i, win);
 
   58         wj = vec_vsx_ld(j, win);
 
   60         s1 = vec_perm(s1, s1, reverse);
 
   61         wj = vec_perm(wj, wj, reverse);
 
   63         t0 = vec_madd(s0, wj, zero);
 
   64         t0 = vec_nmsub(s1, wi, t0);
 
   65         t1 = vec_madd(s0, wi, zero);
 
   66         t1 = vec_madd(s1, wj, t1);
 
   67         t1 = vec_perm(t1, t1, reverse);
 
   69         vec_vsx_st(t0, i, dst);
 
   70         vec_vsx_st(t1, j, dst);
 
   75                             const float *
src1, 
const float *src2,
 
   81     for (i = 0; i < len - 3; i += 4) {
 
   82         s0 = vec_vsx_ld(0, src0 + i);
 
   83         s1 = vec_vsx_ld(0, src1 + i);
 
   84         s2 = vec_vsx_ld(0, src2 + i);
 
   85         d = vec_madd(s0, s1, s2);
 
   86         vec_vsx_st(d, 0, dst + i);
 
   98     for (i = 0; i < len - 7; i += 8) {
 
   99         s1 = vec_vsx_ld(0, src1 - i);              
 
  100         s0 = vec_vsx_ld(0, src0 + i);
 
  101         l0 = vec_mergel(s1, s1);               
 
  102         s3 = vec_vsx_ld(-16, src1 - i);
 
  103         h0 = vec_mergeh(s1, s1);               
 
  104         s2 = vec_vsx_ld(16, src0 + i);
 
  105         s1 = vec_mergeh(vec_mergel(l0, h0),    
 
  108         l0 = vec_mergel(s3, s3);
 
  109         d = vec_madd(s0, s1, zero);
 
  110         h0 = vec_mergeh(s3, s3);
 
  111         vec_vsx_st(d, 0, dst + i);
 
  112         s3 = vec_mergeh(vec_mergel(l0, h0),
 
  114         d = vec_madd(s2, s3, zero);
 
  115         vec_vsx_st(d, 16, dst + i);
 
void ff_vector_fmul_vsx(float *dst, const float *src0, const float *src1, int len)
void ff_vector_fmul_window_vsx(float *dst, const float *src0, const float *src1, const float *win, int len)
void ff_vector_fmul_reverse_vsx(float *dst, const float *src0, const float *src1, int len)
Contains misc utility macros and inline functions. 
void ff_vector_fmul_add_vsx(float *dst, const float *src0, const float *src1, const float *src2, int len)