1
0
mirror of https://github.com/paboyle/Grid.git synced 2025-04-28 14:45:56 +01:00
This commit is contained in:
paboyle 2018-01-12 23:22:18 +00:00
parent 347d5404dd
commit 3c7bf211a9

View File

@ -1,4 +1,4 @@
/************************************************************************************* /*************************************************************************************
Grid physics library, www.github.com/paboyle/Grid Grid physics library, www.github.com/paboyle/Grid
@ -23,8 +23,8 @@ Author: paboyle <paboyle@ph.ed.ac.uk>
51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA. 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA.
See the full license in the file "LICENSE" in the top level distribution directory See the full license in the file "LICENSE" in the top level distribution directory
*************************************************************************************/ *************************************************************************************/
/* END LEGAL */ /* END LEGAL */
#ifndef GRID_ASM_BGQ_QPX_H #ifndef GRID_ASM_BGQ_QPX_H
#define GRID_ASM_BGQ_QPX_H #define GRID_ASM_BGQ_QPX_H
@ -259,7 +259,7 @@ Author: paboyle <paboyle@ph.ed.ac.uk>
#define MULT_2SPIN_DIR_PF(A,p) MULT_2SPIN_PF(&U._odata[sU](A),p) #define MULT_2SPIN_DIR_PF(A,p) MULT_2SPIN_PF(&U._odata[sU](A),p)
#define MULT_2SPIN_PF(ptr,pf) MULT_2SPIN(ptr,pf) #define MULT_2SPIN_PF(ptr,pf) MULT_2SPIN(ptr,pf)
#define SAVE_RESULT(base,basep) {\ #define SAVE_RESULT(base,basep) { \
uint64_t ub = ((uint64_t)base) - (VSIZE); \ uint64_t ub = ((uint64_t)base) - (VSIZE); \
asm("mr " HASH(REP) ", %0;\n" \ asm("mr " HASH(REP) ", %0;\n" \
"li " HASH(IMM) "," HASH(VSIZE)" ;\n" \ "li " HASH(IMM) "," HASH(VSIZE)" ;\n" \
@ -372,7 +372,7 @@ Author: paboyle <paboyle@ph.ed.ac.uk>
VSUB(Chi_12,Chi_12,Chi_22) ); \ VSUB(Chi_12,Chi_12,Chi_22) ); \
} }
/*Gz /*Gz
* 0 0 i 0 [0]+-i[2] * 0 0 i 0 [0]+-i[2]
* 0 0 0 -i [1]-+i[3] * 0 0 0 -i [1]-+i[3]
* -i 0 0 0 * -i 0 0 0
@ -403,7 +403,7 @@ Author: paboyle <paboyle@ph.ed.ac.uk>
VMADD_MII_IR(Chi_12,one,Chi_32,Chi_12) \ VMADD_MII_IR(Chi_12,one,Chi_32,Chi_12) \
); \ ); \
} }
/*Gt /*Gt
* 0 0 1 0 [0]+-[2] * 0 0 1 0 [0]+-[2]
* 0 0 0 1 [1]+-[3] * 0 0 0 1 [1]+-[3]
* 1 0 0 0 * 1 0 0 0
@ -443,12 +443,12 @@ Author: paboyle <paboyle@ph.ed.ac.uk>
fspin(1)+=hspin(1); fspin(1)+=hspin(1);
fspin(2)-=timesI(hspin(1)); fspin(2)-=timesI(hspin(1));
fspin(3)-=timesI(hspin(0)); fspin(3)-=timesI(hspin(0));
*/ */
#define XP_RECON { \ #define XP_RECON { \
asm(\ asm( \
VONE(one)\ VONE(one) \
VMOV(psi_00,UChi_00) VMOV(psi_01,UChi_01) VMOV(psi_02,UChi_02)\ VMOV(psi_00,UChi_00) VMOV(psi_01,UChi_01) VMOV(psi_02,UChi_02) \
VMOV(psi_10,UChi_10) VMOV(psi_11,UChi_11) VMOV(psi_12,UChi_12)\ VMOV(psi_10,UChi_10) VMOV(psi_11,UChi_11) VMOV(psi_12,UChi_12) \
VZERO(psi_20) VZERO(psi_21) VZERO(psi_22) \ VZERO(psi_20) VZERO(psi_21) VZERO(psi_22) \
VZERO(psi_30) VZERO(psi_31) VZERO(psi_32) \ VZERO(psi_30) VZERO(psi_31) VZERO(psi_32) \
VMADD_II_MIR(psi_20,one,UChi_10,psi_20) \ VMADD_II_MIR(psi_20,one,UChi_10,psi_20) \
@ -461,10 +461,10 @@ Author: paboyle <paboyle@ph.ed.ac.uk>
} }
#define XM_RECON { \ #define XM_RECON { \
asm(\ asm( \
VONE(one)\ VONE(one) \
VMOV(psi_00,UChi_00) VMOV(psi_01,UChi_01) VMOV(psi_02,UChi_02)\ VMOV(psi_00,UChi_00) VMOV(psi_01,UChi_01) VMOV(psi_02,UChi_02) \
VMOV(psi_10,UChi_10) VMOV(psi_11,UChi_11) VMOV(psi_12,UChi_12)\ VMOV(psi_10,UChi_10) VMOV(psi_11,UChi_11) VMOV(psi_12,UChi_12) \
VZERO(psi_20) VZERO(psi_21) VZERO(psi_22) \ VZERO(psi_20) VZERO(psi_21) VZERO(psi_22) \
VZERO(psi_30) VZERO(psi_31) VZERO(psi_32) \ VZERO(psi_30) VZERO(psi_31) VZERO(psi_32) \
VMADD_MII_IR(psi_20,one,UChi_10,psi_20) \ VMADD_MII_IR(psi_20,one,UChi_10,psi_20) \
@ -477,8 +477,8 @@ Author: paboyle <paboyle@ph.ed.ac.uk>
} }
#define XP_RECON_ACCUM { \ #define XP_RECON_ACCUM { \
asm(\ asm( \
VONE(one)\ VONE(one) \
VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \ VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \
VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \ VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \
VMADD_II_MIR(psi_20,one,UChi_10,psi_20) \ VMADD_II_MIR(psi_20,one,UChi_10,psi_20) \
@ -491,8 +491,8 @@ Author: paboyle <paboyle@ph.ed.ac.uk>
} }
#define XM_RECON_ACCUM { \ #define XM_RECON_ACCUM { \
asm(\ asm( \
VONE(one)\ VONE(one) \
VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \ VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \
VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \ VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \
VMADD_MII_IR(psi_20,one,UChi_10,psi_20) \ VMADD_MII_IR(psi_20,one,UChi_10,psi_20) \
@ -506,28 +506,28 @@ Author: paboyle <paboyle@ph.ed.ac.uk>
// fspin(2)+=hspin(1); // fspin(2)+=hspin(1);
// fspin(3)-=hspin(0); // fspin(3)-=hspin(0);
#define YP_RECON_ACCUM {\ #define YP_RECON_ACCUM { \
asm(\ asm( \
VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \ VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \
VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \ VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \
VADD(psi_20,psi_20,UChi_10) VADD(psi_21,psi_21,UChi_11) VADD(psi_22,psi_22,UChi_12) \ VADD(psi_20,psi_20,UChi_10) VADD(psi_21,psi_21,UChi_11) VADD(psi_22,psi_22,UChi_12) \
VSUB(psi_30,psi_30,UChi_00) VSUB(psi_31,psi_31,UChi_01) VSUB(psi_32,psi_32,UChi_02) \ VSUB(psi_30,psi_30,UChi_00) VSUB(psi_31,psi_31,UChi_01) VSUB(psi_32,psi_32,UChi_02) \
);\ ); \
} }
#define YM_RECON_ACCUM {\ #define YM_RECON_ACCUM { \
asm(\ asm( \
VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \ VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \
VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \ VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \
VSUB(psi_20,psi_20,UChi_10) VSUB(psi_21,psi_21,UChi_11) VSUB(psi_22,psi_22,UChi_12) \ VSUB(psi_20,psi_20,UChi_10) VSUB(psi_21,psi_21,UChi_11) VSUB(psi_22,psi_22,UChi_12) \
VADD(psi_30,psi_30,UChi_00) VADD(psi_31,psi_31,UChi_01) VADD(psi_32,psi_32,UChi_02) \ VADD(psi_30,psi_30,UChi_00) VADD(psi_31,psi_31,UChi_01) VADD(psi_32,psi_32,UChi_02) \
);\ ); \
} }
// fspin(2)-=timesI(hspin(0)); // fspin(2)-=timesI(hspin(0));
// fspin(3)+=timesI(hspin(1)); // fspin(3)+=timesI(hspin(1));
#define ZP_RECON_ACCUM {\ #define ZP_RECON_ACCUM { \
asm(\ asm( \
VONE(one)\ VONE(one) \
VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \ VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \
VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \ VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \
VMADD_II_MIR(psi_20,one,UChi_00,psi_20) \ VMADD_II_MIR(psi_20,one,UChi_00,psi_20) \
@ -536,12 +536,12 @@ Author: paboyle <paboyle@ph.ed.ac.uk>
VMADD_MII_IR(psi_30,one,UChi_10,psi_30) \ VMADD_MII_IR(psi_30,one,UChi_10,psi_30) \
VMADD_MII_IR(psi_31,one,UChi_11,psi_31) \ VMADD_MII_IR(psi_31,one,UChi_11,psi_31) \
VMADD_MII_IR(psi_32,one,UChi_12,psi_32) \ VMADD_MII_IR(psi_32,one,UChi_12,psi_32) \
);\ ); \
} }
#define ZM_RECON_ACCUM {\ #define ZM_RECON_ACCUM { \
asm(\ asm( \
VONE(one)\ VONE(one) \
VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \ VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \
VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \ VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \
VMADD_MII_IR(psi_20,one,UChi_00,psi_20) \ VMADD_MII_IR(psi_20,one,UChi_00,psi_20) \
@ -550,27 +550,27 @@ Author: paboyle <paboyle@ph.ed.ac.uk>
VMADD_II_MIR(psi_30,one,UChi_10,psi_30) \ VMADD_II_MIR(psi_30,one,UChi_10,psi_30) \
VMADD_II_MIR(psi_31,one,UChi_11,psi_31) \ VMADD_II_MIR(psi_31,one,UChi_11,psi_31) \
VMADD_II_MIR(psi_32,one,UChi_12,psi_32) \ VMADD_II_MIR(psi_32,one,UChi_12,psi_32) \
);\ ); \
} }
// fspin(2)+=hspin(0); // fspin(2)+=hspin(0);
// fspin(3)+=hspin(1); // fspin(3)+=hspin(1);
#define TP_RECON_ACCUM {\ #define TP_RECON_ACCUM { \
asm(\ asm( \
VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \ VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \
VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \ VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \
VADD(psi_20,psi_20,UChi_00) VADD(psi_21,psi_21,UChi_01) VADD(psi_22,psi_22,UChi_02) \ VADD(psi_20,psi_20,UChi_00) VADD(psi_21,psi_21,UChi_01) VADD(psi_22,psi_22,UChi_02) \
VADD(psi_30,psi_30,UChi_10) VADD(psi_31,psi_31,UChi_11) VADD(psi_32,psi_32,UChi_12) \ VADD(psi_30,psi_30,UChi_10) VADD(psi_31,psi_31,UChi_11) VADD(psi_32,psi_32,UChi_12) \
);\ ); \
} }
#define TM_RECON_ACCUM {\ #define TM_RECON_ACCUM { \
asm(\ asm( \
VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \ VADD(psi_00,psi_00,UChi_00) VADD(psi_01,psi_01,UChi_01) VADD(psi_02,psi_02,UChi_02) \
VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \ VADD(psi_10,psi_10,UChi_10) VADD(psi_11,psi_11,UChi_11) VADD(psi_12,psi_12,UChi_12) \
VSUB(psi_20,psi_20,UChi_00) VSUB(psi_21,psi_21,UChi_01) VSUB(psi_22,psi_22,UChi_02) \ VSUB(psi_20,psi_20,UChi_00) VSUB(psi_21,psi_21,UChi_01) VSUB(psi_22,psi_22,UChi_02) \
VSUB(psi_30,psi_30,UChi_10) VSUB(psi_31,psi_31,UChi_11) VSUB(psi_32,psi_32,UChi_12) \ VSUB(psi_30,psi_30,UChi_10) VSUB(psi_31,psi_31,UChi_11) VSUB(psi_32,psi_32,UChi_12) \
);\ ); \
} }