diff options
author | Michael Munday <mike.munday@ibm.com> | 2019-03-13 10:32:48 +0000 |
---|---|---|
committer | Michael Munday <mike.munday@ibm.com> | 2019-03-13 15:11:37 +0000 |
commit | 04f1b65cc6ffbaa3693bbcb57ae26fb59466531b (patch) | |
tree | 08789a47f4032d5bb2ad8e5d2b0da8ea544bc356 /src/cmd/compile/internal/ssa/rewriteMIPS64.go | |
parent | 5d4fa147c70b5ec2dfa812220c1ddc135e3b5381 (diff) | |
download | go-04f1b65cc6ffbaa3693bbcb57ae26fb59466531b.tar.gz go-04f1b65cc6ffbaa3693bbcb57ae26fb59466531b.zip |
cmd/compile: try and access last argument first in rulegen
This reduces the number of extra bounds check hints we need to
insert. For example, rather than producing:
_ = v.Args[2]
x := v.Args[0]
y := v.Args[1]
z := v.Args[2]
We now produce:
z := v.Args[2]
x := v.Args[0]
y := v.Args[1]
This gets rid of about 7000 lines of code from the rewrite rules.
Change-Id: I1291cf0f82e8d035a6d65bce7dee6cedee04cbcd
Reviewed-on: https://go-review.googlesource.com/c/go/+/167397
Reviewed-by: Daniel Martà <mvdan@mvdan.cc>
Reviewed-by: Cherry Zhang <cherryyz@google.com>
Run-TryBot: Cherry Zhang <cherryyz@google.com>
TryBot-Result: Gobot Gobot <gobot@golang.org>
Diffstat (limited to 'src/cmd/compile/internal/ssa/rewriteMIPS64.go')
-rw-r--r-- | src/cmd/compile/internal/ssa/rewriteMIPS64.go | 919 |
1 files changed, 307 insertions, 612 deletions
diff --git a/src/cmd/compile/internal/ssa/rewriteMIPS64.go b/src/cmd/compile/internal/ssa/rewriteMIPS64.go index c56f82f696..4d1d817033 100644 --- a/src/cmd/compile/internal/ssa/rewriteMIPS64.go +++ b/src/cmd/compile/internal/ssa/rewriteMIPS64.go @@ -619,9 +619,8 @@ func rewriteValueMIPS64_OpAdd16_0(v *Value) bool { // cond: // result: (ADDV x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64ADDV) v.AddArg(x) v.AddArg(y) @@ -633,9 +632,8 @@ func rewriteValueMIPS64_OpAdd32_0(v *Value) bool { // cond: // result: (ADDV x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64ADDV) v.AddArg(x) v.AddArg(y) @@ -647,9 +645,8 @@ func rewriteValueMIPS64_OpAdd32F_0(v *Value) bool { // cond: // result: (ADDF x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64ADDF) v.AddArg(x) v.AddArg(y) @@ -661,9 +658,8 @@ func rewriteValueMIPS64_OpAdd64_0(v *Value) bool { // cond: // result: (ADDV x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64ADDV) v.AddArg(x) v.AddArg(y) @@ -675,9 +671,8 @@ func rewriteValueMIPS64_OpAdd64F_0(v *Value) bool { // cond: // result: (ADDD x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64ADDD) v.AddArg(x) v.AddArg(y) @@ -689,9 +684,8 @@ func rewriteValueMIPS64_OpAdd8_0(v *Value) bool { // cond: // result: (ADDV x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64ADDV) v.AddArg(x) v.AddArg(y) @@ -703,9 +697,8 @@ func rewriteValueMIPS64_OpAddPtr_0(v *Value) bool { // cond: // result: (ADDV x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64ADDV) v.AddArg(x) v.AddArg(y) @@ -730,9 +723,8 @@ func rewriteValueMIPS64_OpAnd16_0(v *Value) bool { // cond: // result: (AND x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v.AddArg(x) v.AddArg(y) @@ -744,9 +736,8 @@ func rewriteValueMIPS64_OpAnd32_0(v *Value) bool { // cond: // result: (AND x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v.AddArg(x) v.AddArg(y) @@ -758,9 +749,8 @@ func rewriteValueMIPS64_OpAnd64_0(v *Value) bool { // cond: // result: (AND x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v.AddArg(x) v.AddArg(y) @@ -772,9 +762,8 @@ func rewriteValueMIPS64_OpAnd8_0(v *Value) bool { // cond: // result: (AND x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v.AddArg(x) v.AddArg(y) @@ -786,9 +775,8 @@ func rewriteValueMIPS64_OpAndB_0(v *Value) bool { // cond: // result: (AND x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v.AddArg(x) v.AddArg(y) @@ -800,10 +788,9 @@ func rewriteValueMIPS64_OpAtomicAdd32_0(v *Value) bool { // cond: // result: (LoweredAtomicAdd32 ptr val mem) for { - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] val := v.Args[1] - mem := v.Args[2] v.reset(OpMIPS64LoweredAtomicAdd32) v.AddArg(ptr) v.AddArg(val) @@ -816,10 +803,9 @@ func rewriteValueMIPS64_OpAtomicAdd64_0(v *Value) bool { // cond: // result: (LoweredAtomicAdd64 ptr val mem) for { - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] val := v.Args[1] - mem := v.Args[2] v.reset(OpMIPS64LoweredAtomicAdd64) v.AddArg(ptr) v.AddArg(val) @@ -832,11 +818,10 @@ func rewriteValueMIPS64_OpAtomicCompareAndSwap32_0(v *Value) bool { // cond: // result: (LoweredAtomicCas32 ptr old new_ mem) for { - _ = v.Args[3] + mem := v.Args[3] ptr := v.Args[0] old := v.Args[1] new_ := v.Args[2] - mem := v.Args[3] v.reset(OpMIPS64LoweredAtomicCas32) v.AddArg(ptr) v.AddArg(old) @@ -850,11 +835,10 @@ func rewriteValueMIPS64_OpAtomicCompareAndSwap64_0(v *Value) bool { // cond: // result: (LoweredAtomicCas64 ptr old new_ mem) for { - _ = v.Args[3] + mem := v.Args[3] ptr := v.Args[0] old := v.Args[1] new_ := v.Args[2] - mem := v.Args[3] v.reset(OpMIPS64LoweredAtomicCas64) v.AddArg(ptr) v.AddArg(old) @@ -868,10 +852,9 @@ func rewriteValueMIPS64_OpAtomicExchange32_0(v *Value) bool { // cond: // result: (LoweredAtomicExchange32 ptr val mem) for { - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] val := v.Args[1] - mem := v.Args[2] v.reset(OpMIPS64LoweredAtomicExchange32) v.AddArg(ptr) v.AddArg(val) @@ -884,10 +867,9 @@ func rewriteValueMIPS64_OpAtomicExchange64_0(v *Value) bool { // cond: // result: (LoweredAtomicExchange64 ptr val mem) for { - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] val := v.Args[1] - mem := v.Args[2] v.reset(OpMIPS64LoweredAtomicExchange64) v.AddArg(ptr) v.AddArg(val) @@ -900,9 +882,8 @@ func rewriteValueMIPS64_OpAtomicLoad32_0(v *Value) bool { // cond: // result: (LoweredAtomicLoad32 ptr mem) for { - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] v.reset(OpMIPS64LoweredAtomicLoad32) v.AddArg(ptr) v.AddArg(mem) @@ -914,9 +895,8 @@ func rewriteValueMIPS64_OpAtomicLoad64_0(v *Value) bool { // cond: // result: (LoweredAtomicLoad64 ptr mem) for { - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] v.reset(OpMIPS64LoweredAtomicLoad64) v.AddArg(ptr) v.AddArg(mem) @@ -928,9 +908,8 @@ func rewriteValueMIPS64_OpAtomicLoadPtr_0(v *Value) bool { // cond: // result: (LoweredAtomicLoad64 ptr mem) for { - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] v.reset(OpMIPS64LoweredAtomicLoad64) v.AddArg(ptr) v.AddArg(mem) @@ -942,10 +921,9 @@ func rewriteValueMIPS64_OpAtomicStore32_0(v *Value) bool { // cond: // result: (LoweredAtomicStore32 ptr val mem) for { - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] val := v.Args[1] - mem := v.Args[2] v.reset(OpMIPS64LoweredAtomicStore32) v.AddArg(ptr) v.AddArg(val) @@ -958,10 +936,9 @@ func rewriteValueMIPS64_OpAtomicStore64_0(v *Value) bool { // cond: // result: (LoweredAtomicStore64 ptr val mem) for { - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] val := v.Args[1] - mem := v.Args[2] v.reset(OpMIPS64LoweredAtomicStore64) v.AddArg(ptr) v.AddArg(val) @@ -974,10 +951,9 @@ func rewriteValueMIPS64_OpAtomicStorePtrNoWB_0(v *Value) bool { // cond: // result: (LoweredAtomicStore64 ptr val mem) for { - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] val := v.Args[1] - mem := v.Args[2] v.reset(OpMIPS64LoweredAtomicStore64) v.AddArg(ptr) v.AddArg(val) @@ -992,9 +968,8 @@ func rewriteValueMIPS64_OpAvg64u_0(v *Value) bool { // result: (ADDV (SRLVconst <t> (SUBV <t> x y) [1]) y) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64ADDV) v0 := b.NewValue0(v.Pos, OpMIPS64SRLVconst, t) v0.AuxInt = 1 @@ -1013,10 +988,9 @@ func rewriteValueMIPS64_OpClosureCall_0(v *Value) bool { // result: (CALLclosure [argwid] entry closure mem) for { argwid := v.AuxInt - _ = v.Args[2] + mem := v.Args[2] entry := v.Args[0] closure := v.Args[1] - mem := v.Args[2] v.reset(OpMIPS64CALLclosure) v.AuxInt = argwid v.AddArg(entry) @@ -1293,9 +1267,8 @@ func rewriteValueMIPS64_OpDiv16_0(v *Value) bool { // cond: // result: (Select1 (DIVV (SignExt16to64 x) (SignExt16to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect1) v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64)) v1 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64) @@ -1315,9 +1288,8 @@ func rewriteValueMIPS64_OpDiv16u_0(v *Value) bool { // cond: // result: (Select1 (DIVVU (ZeroExt16to64 x) (ZeroExt16to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect1) v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64)) v1 := b.NewValue0(v.Pos, OpZeroExt16to64, typ.UInt64) @@ -1337,9 +1309,8 @@ func rewriteValueMIPS64_OpDiv32_0(v *Value) bool { // cond: // result: (Select1 (DIVV (SignExt32to64 x) (SignExt32to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect1) v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64)) v1 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64) @@ -1357,9 +1328,8 @@ func rewriteValueMIPS64_OpDiv32F_0(v *Value) bool { // cond: // result: (DIVF x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64DIVF) v.AddArg(x) v.AddArg(y) @@ -1373,9 +1343,8 @@ func rewriteValueMIPS64_OpDiv32u_0(v *Value) bool { // cond: // result: (Select1 (DIVVU (ZeroExt32to64 x) (ZeroExt32to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect1) v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64)) v1 := b.NewValue0(v.Pos, OpZeroExt32to64, typ.UInt64) @@ -1395,9 +1364,8 @@ func rewriteValueMIPS64_OpDiv64_0(v *Value) bool { // cond: // result: (Select1 (DIVV x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect1) v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64)) v0.AddArg(x) @@ -1411,9 +1379,8 @@ func rewriteValueMIPS64_OpDiv64F_0(v *Value) bool { // cond: // result: (DIVD x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64DIVD) v.AddArg(x) v.AddArg(y) @@ -1427,9 +1394,8 @@ func rewriteValueMIPS64_OpDiv64u_0(v *Value) bool { // cond: // result: (Select1 (DIVVU x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect1) v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64)) v0.AddArg(x) @@ -1445,9 +1411,8 @@ func rewriteValueMIPS64_OpDiv8_0(v *Value) bool { // cond: // result: (Select1 (DIVV (SignExt8to64 x) (SignExt8to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect1) v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64)) v1 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64) @@ -1467,9 +1432,8 @@ func rewriteValueMIPS64_OpDiv8u_0(v *Value) bool { // cond: // result: (Select1 (DIVVU (ZeroExt8to64 x) (ZeroExt8to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect1) v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64)) v1 := b.NewValue0(v.Pos, OpZeroExt8to64, typ.UInt64) @@ -1489,9 +1453,8 @@ func rewriteValueMIPS64_OpEq16_0(v *Value) bool { // cond: // result: (SGTU (MOVVconst [1]) (XOR (ZeroExt16to64 x) (ZeroExt16to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -1514,9 +1477,8 @@ func rewriteValueMIPS64_OpEq32_0(v *Value) bool { // cond: // result: (SGTU (MOVVconst [1]) (XOR (ZeroExt32to64 x) (ZeroExt32to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -1538,9 +1500,8 @@ func rewriteValueMIPS64_OpEq32F_0(v *Value) bool { // cond: // result: (FPFlagTrue (CMPEQF x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64FPFlagTrue) v0 := b.NewValue0(v.Pos, OpMIPS64CMPEQF, types.TypeFlags) v0.AddArg(x) @@ -1556,9 +1517,8 @@ func rewriteValueMIPS64_OpEq64_0(v *Value) bool { // cond: // result: (SGTU (MOVVconst [1]) (XOR x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -1576,9 +1536,8 @@ func rewriteValueMIPS64_OpEq64F_0(v *Value) bool { // cond: // result: (FPFlagTrue (CMPEQD x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64FPFlagTrue) v0 := b.NewValue0(v.Pos, OpMIPS64CMPEQD, types.TypeFlags) v0.AddArg(x) @@ -1594,9 +1553,8 @@ func rewriteValueMIPS64_OpEq8_0(v *Value) bool { // cond: // result: (SGTU (MOVVconst [1]) (XOR (ZeroExt8to64 x) (ZeroExt8to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -1619,9 +1577,8 @@ func rewriteValueMIPS64_OpEqB_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (XOR <typ.Bool> x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -1640,9 +1597,8 @@ func rewriteValueMIPS64_OpEqPtr_0(v *Value) bool { // cond: // result: (SGTU (MOVVconst [1]) (XOR x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -1661,9 +1617,8 @@ func rewriteValueMIPS64_OpGeq16_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGT (SignExt16to64 y) (SignExt16to64 x))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -1686,9 +1641,8 @@ func rewriteValueMIPS64_OpGeq16U_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGTU (ZeroExt16to64 y) (ZeroExt16to64 x))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -1711,9 +1665,8 @@ func rewriteValueMIPS64_OpGeq32_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGT (SignExt32to64 y) (SignExt32to64 x))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -1735,9 +1688,8 @@ func rewriteValueMIPS64_OpGeq32F_0(v *Value) bool { // cond: // result: (FPFlagTrue (CMPGEF x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64FPFlagTrue) v0 := b.NewValue0(v.Pos, OpMIPS64CMPGEF, types.TypeFlags) v0.AddArg(x) @@ -1753,9 +1705,8 @@ func rewriteValueMIPS64_OpGeq32U_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGTU (ZeroExt32to64 y) (ZeroExt32to64 x))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -1778,9 +1729,8 @@ func rewriteValueMIPS64_OpGeq64_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGT y x)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -1798,9 +1748,8 @@ func rewriteValueMIPS64_OpGeq64F_0(v *Value) bool { // cond: // result: (FPFlagTrue (CMPGED x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64FPFlagTrue) v0 := b.NewValue0(v.Pos, OpMIPS64CMPGED, types.TypeFlags) v0.AddArg(x) @@ -1816,9 +1765,8 @@ func rewriteValueMIPS64_OpGeq64U_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGTU y x)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -1837,9 +1785,8 @@ func rewriteValueMIPS64_OpGeq8_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGT (SignExt8to64 y) (SignExt8to64 x))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -1862,9 +1809,8 @@ func rewriteValueMIPS64_OpGeq8U_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGTU (ZeroExt8to64 y) (ZeroExt8to64 x))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -1914,9 +1860,8 @@ func rewriteValueMIPS64_OpGreater16_0(v *Value) bool { // cond: // result: (SGT (SignExt16to64 x) (SignExt16to64 y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGT) v0 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64) v0.AddArg(x) @@ -1934,9 +1879,8 @@ func rewriteValueMIPS64_OpGreater16U_0(v *Value) bool { // cond: // result: (SGTU (ZeroExt16to64 x) (ZeroExt16to64 y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpZeroExt16to64, typ.UInt64) v0.AddArg(x) @@ -1954,9 +1898,8 @@ func rewriteValueMIPS64_OpGreater32_0(v *Value) bool { // cond: // result: (SGT (SignExt32to64 x) (SignExt32to64 y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGT) v0 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64) v0.AddArg(x) @@ -1973,9 +1916,8 @@ func rewriteValueMIPS64_OpGreater32F_0(v *Value) bool { // cond: // result: (FPFlagTrue (CMPGTF x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64FPFlagTrue) v0 := b.NewValue0(v.Pos, OpMIPS64CMPGTF, types.TypeFlags) v0.AddArg(x) @@ -1991,9 +1933,8 @@ func rewriteValueMIPS64_OpGreater32U_0(v *Value) bool { // cond: // result: (SGTU (ZeroExt32to64 x) (ZeroExt32to64 y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpZeroExt32to64, typ.UInt64) v0.AddArg(x) @@ -2009,9 +1950,8 @@ func rewriteValueMIPS64_OpGreater64_0(v *Value) bool { // cond: // result: (SGT x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGT) v.AddArg(x) v.AddArg(y) @@ -2024,9 +1964,8 @@ func rewriteValueMIPS64_OpGreater64F_0(v *Value) bool { // cond: // result: (FPFlagTrue (CMPGTD x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64FPFlagTrue) v0 := b.NewValue0(v.Pos, OpMIPS64CMPGTD, types.TypeFlags) v0.AddArg(x) @@ -2040,9 +1979,8 @@ func rewriteValueMIPS64_OpGreater64U_0(v *Value) bool { // cond: // result: (SGTU x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v.AddArg(x) v.AddArg(y) @@ -2056,9 +1994,8 @@ func rewriteValueMIPS64_OpGreater8_0(v *Value) bool { // cond: // result: (SGT (SignExt8to64 x) (SignExt8to64 y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGT) v0 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64) v0.AddArg(x) @@ -2076,9 +2013,8 @@ func rewriteValueMIPS64_OpGreater8U_0(v *Value) bool { // cond: // result: (SGTU (ZeroExt8to64 x) (ZeroExt8to64 y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpZeroExt8to64, typ.UInt64) v0.AddArg(x) @@ -2096,9 +2032,8 @@ func rewriteValueMIPS64_OpHmul32_0(v *Value) bool { // cond: // result: (SRAVconst (Select1 <typ.Int64> (MULV (SignExt32to64 x) (SignExt32to64 y))) [32]) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAVconst) v.AuxInt = 32 v0 := b.NewValue0(v.Pos, OpSelect1, typ.Int64) @@ -2121,9 +2056,8 @@ func rewriteValueMIPS64_OpHmul32u_0(v *Value) bool { // cond: // result: (SRLVconst (Select1 <typ.UInt64> (MULVU (ZeroExt32to64 x) (ZeroExt32to64 y))) [32]) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRLVconst) v.AuxInt = 32 v0 := b.NewValue0(v.Pos, OpSelect1, typ.UInt64) @@ -2146,9 +2080,8 @@ func rewriteValueMIPS64_OpHmul64_0(v *Value) bool { // cond: // result: (Select0 (MULV x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect0) v0 := b.NewValue0(v.Pos, OpMIPS64MULV, types.NewTuple(typ.Int64, typ.Int64)) v0.AddArg(x) @@ -2164,9 +2097,8 @@ func rewriteValueMIPS64_OpHmul64u_0(v *Value) bool { // cond: // result: (Select0 (MULVU x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect0) v0 := b.NewValue0(v.Pos, OpMIPS64MULVU, types.NewTuple(typ.UInt64, typ.UInt64)) v0.AddArg(x) @@ -2181,9 +2113,8 @@ func rewriteValueMIPS64_OpInterCall_0(v *Value) bool { // result: (CALLinter [argwid] entry mem) for { argwid := v.AuxInt - _ = v.Args[1] - entry := v.Args[0] mem := v.Args[1] + entry := v.Args[0] v.reset(OpMIPS64CALLinter) v.AuxInt = argwid v.AddArg(entry) @@ -2196,9 +2127,8 @@ func rewriteValueMIPS64_OpIsInBounds_0(v *Value) bool { // cond: // result: (SGTU len idx) for { - _ = v.Args[1] - idx := v.Args[0] len := v.Args[1] + idx := v.Args[0] v.reset(OpMIPS64SGTU) v.AddArg(len) v.AddArg(idx) @@ -2228,9 +2158,8 @@ func rewriteValueMIPS64_OpIsSliceInBounds_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGTU idx len)) for { - _ = v.Args[1] - idx := v.Args[0] len := v.Args[1] + idx := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -2249,9 +2178,8 @@ func rewriteValueMIPS64_OpLeq16_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGT (SignExt16to64 x) (SignExt16to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -2274,9 +2202,8 @@ func rewriteValueMIPS64_OpLeq16U_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGTU (ZeroExt16to64 x) (ZeroExt16to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -2299,9 +2226,8 @@ func rewriteValueMIPS64_OpLeq32_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGT (SignExt32to64 x) (SignExt32to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -2323,9 +2249,8 @@ func rewriteValueMIPS64_OpLeq32F_0(v *Value) bool { // cond: // result: (FPFlagTrue (CMPGEF y x)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64FPFlagTrue) v0 := b.NewValue0(v.Pos, OpMIPS64CMPGEF, types.TypeFlags) v0.AddArg(y) @@ -2341,9 +2266,8 @@ func rewriteValueMIPS64_OpLeq32U_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGTU (ZeroExt32to64 x) (ZeroExt32to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -2366,9 +2290,8 @@ func rewriteValueMIPS64_OpLeq64_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGT x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -2386,9 +2309,8 @@ func rewriteValueMIPS64_OpLeq64F_0(v *Value) bool { // cond: // result: (FPFlagTrue (CMPGED y x)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64FPFlagTrue) v0 := b.NewValue0(v.Pos, OpMIPS64CMPGED, types.TypeFlags) v0.AddArg(y) @@ -2404,9 +2326,8 @@ func rewriteValueMIPS64_OpLeq64U_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGTU x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -2425,9 +2346,8 @@ func rewriteValueMIPS64_OpLeq8_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGT (SignExt8to64 x) (SignExt8to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -2450,9 +2370,8 @@ func rewriteValueMIPS64_OpLeq8U_0(v *Value) bool { // cond: // result: (XOR (MOVVconst [1]) (SGTU (ZeroExt8to64 x) (ZeroExt8to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) v0.AuxInt = 1 @@ -2475,9 +2394,8 @@ func rewriteValueMIPS64_OpLess16_0(v *Value) bool { // cond: // result: (SGT (SignExt16to64 y) (SignExt16to64 x)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGT) v0 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64) v0.AddArg(y) @@ -2495,9 +2413,8 @@ func rewriteValueMIPS64_OpLess16U_0(v *Value) bool { // cond: // result: (SGTU (ZeroExt16to64 y) (ZeroExt16to64 x)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpZeroExt16to64, typ.UInt64) v0.AddArg(y) @@ -2515,9 +2432,8 @@ func rewriteValueMIPS64_OpLess32_0(v *Value) bool { // cond: // result: (SGT (SignExt32to64 y) (SignExt32to64 x)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGT) v0 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64) v0.AddArg(y) @@ -2534,9 +2450,8 @@ func rewriteValueMIPS64_OpLess32F_0(v *Value) bool { // cond: // result: (FPFlagTrue (CMPGTF y x)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64FPFlagTrue) v0 := b.NewValue0(v.Pos, OpMIPS64CMPGTF, types.TypeFlags) v0.AddArg(y) @@ -2552,9 +2467,8 @@ func rewriteValueMIPS64_OpLess32U_0(v *Value) bool { // cond: // result: (SGTU (ZeroExt32to64 y) (ZeroExt32to64 x)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpZeroExt32to64, typ.UInt64) v0.AddArg(y) @@ -2570,9 +2484,8 @@ func rewriteValueMIPS64_OpLess64_0(v *Value) bool { // cond: // result: (SGT y x) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGT) v.AddArg(y) v.AddArg(x) @@ -2585,9 +2498,8 @@ func rewriteValueMIPS64_OpLess64F_0(v *Value) bool { // cond: // result: (FPFlagTrue (CMPGTD y x)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64FPFlagTrue) v0 := b.NewValue0(v.Pos, OpMIPS64CMPGTD, types.TypeFlags) v0.AddArg(y) @@ -2601,9 +2513,8 @@ func rewriteValueMIPS64_OpLess64U_0(v *Value) bool { // cond: // result: (SGTU y x) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v.AddArg(y) v.AddArg(x) @@ -2617,9 +2528,8 @@ func rewriteValueMIPS64_OpLess8_0(v *Value) bool { // cond: // result: (SGT (SignExt8to64 y) (SignExt8to64 x)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGT) v0 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64) v0.AddArg(y) @@ -2637,9 +2547,8 @@ func rewriteValueMIPS64_OpLess8U_0(v *Value) bool { // cond: // result: (SGTU (ZeroExt8to64 y) (ZeroExt8to64 x)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpZeroExt8to64, typ.UInt64) v0.AddArg(y) @@ -2656,9 +2565,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool { // result: (MOVBUload ptr mem) for { t := v.Type - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(t.IsBoolean()) { break } @@ -2672,9 +2580,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool { // result: (MOVBload ptr mem) for { t := v.Type - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(is8BitInt(t) && isSigned(t)) { break } @@ -2688,9 +2595,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool { // result: (MOVBUload ptr mem) for { t := v.Type - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(is8BitInt(t) && !isSigned(t)) { break } @@ -2704,9 +2610,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool { // result: (MOVHload ptr mem) for { t := v.Type - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(is16BitInt(t) && isSigned(t)) { break } @@ -2720,9 +2625,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool { // result: (MOVHUload ptr mem) for { t := v.Type - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(is16BitInt(t) && !isSigned(t)) { break } @@ -2736,9 +2640,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool { // result: (MOVWload ptr mem) for { t := v.Type - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(is32BitInt(t) && isSigned(t)) { break } @@ -2752,9 +2655,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool { // result: (MOVWUload ptr mem) for { t := v.Type - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(is32BitInt(t) && !isSigned(t)) { break } @@ -2768,9 +2670,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool { // result: (MOVVload ptr mem) for { t := v.Type - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(is64BitInt(t) || isPtr(t)) { break } @@ -2784,9 +2685,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool { // result: (MOVFload ptr mem) for { t := v.Type - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(is32BitFloat(t)) { break } @@ -2800,9 +2700,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool { // result: (MOVDload ptr mem) for { t := v.Type - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(is64BitFloat(t)) { break } @@ -2835,9 +2734,8 @@ func rewriteValueMIPS64_OpLsh16x16_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SLLV <t> x (ZeroExt16to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -2866,9 +2764,8 @@ func rewriteValueMIPS64_OpLsh16x32_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SLLV <t> x (ZeroExt32to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -2897,9 +2794,8 @@ func rewriteValueMIPS64_OpLsh16x64_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SLLV <t> x y)) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -2924,9 +2820,8 @@ func rewriteValueMIPS64_OpLsh16x8_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SLLV <t> x (ZeroExt8to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -2955,9 +2850,8 @@ func rewriteValueMIPS64_OpLsh32x16_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SLLV <t> x (ZeroExt16to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -2986,9 +2880,8 @@ func rewriteValueMIPS64_OpLsh32x32_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SLLV <t> x (ZeroExt32to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -3017,9 +2910,8 @@ func rewriteValueMIPS64_OpLsh32x64_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SLLV <t> x y)) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -3044,9 +2936,8 @@ func rewriteValueMIPS64_OpLsh32x8_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SLLV <t> x (ZeroExt8to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -3075,9 +2966,8 @@ func rewriteValueMIPS64_OpLsh64x16_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SLLV <t> x (ZeroExt16to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -3106,9 +2996,8 @@ func rewriteValueMIPS64_OpLsh64x32_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SLLV <t> x (ZeroExt32to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -3137,9 +3026,8 @@ func rewriteValueMIPS64_OpLsh64x64_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SLLV <t> x y)) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -3164,9 +3052,8 @@ func rewriteValueMIPS64_OpLsh64x8_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SLLV <t> x (ZeroExt8to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -3195,9 +3082,8 @@ func rewriteValueMIPS64_OpLsh8x16_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SLLV <t> x (ZeroExt16to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -3226,9 +3112,8 @@ func rewriteValueMIPS64_OpLsh8x32_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SLLV <t> x (ZeroExt32to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -3257,9 +3142,8 @@ func rewriteValueMIPS64_OpLsh8x64_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SLLV <t> x y)) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -3284,9 +3168,8 @@ func rewriteValueMIPS64_OpLsh8x8_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SLLV <t> x (ZeroExt8to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -3331,13 +3214,12 @@ func rewriteValueMIPS64_OpMIPS64ADDV_0(v *Value) bool { // cond: is32Bit(c) // result: (ADDVconst [c] x) for { - _ = v.Args[1] + x := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVconst { break } c := v_0.AuxInt - x := v.Args[1] if !(is32Bit(c)) { break } @@ -3366,13 +3248,12 @@ func rewriteValueMIPS64_OpMIPS64ADDV_0(v *Value) bool { // cond: // result: (SUBV x y) for { - _ = v.Args[1] + x := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64NEGV { break } y := v_0.Args[0] - x := v.Args[1] v.reset(OpMIPS64SUBV) v.AddArg(x) v.AddArg(y) @@ -3490,13 +3371,12 @@ func rewriteValueMIPS64_OpMIPS64AND_0(v *Value) bool { // cond: is32Bit(c) // result: (ANDconst [c] x) for { - _ = v.Args[1] + x := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVconst { break } c := v_0.AuxInt - x := v.Args[1] if !(is32Bit(c)) { break } @@ -3509,9 +3389,8 @@ func rewriteValueMIPS64_OpMIPS64AND_0(v *Value) bool { // cond: // result: x for { - _ = v.Args[1] - x := v.Args[0] - if x != v.Args[1] { + x := v.Args[1] + if x != v.Args[0] { break } v.reset(OpCopy) @@ -3583,14 +3462,13 @@ func rewriteValueMIPS64_OpMIPS64LoweredAtomicAdd32_0(v *Value) bool { // cond: is32Bit(c) // result: (LoweredAtomicAddconst32 [c] ptr mem) for { - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVVconst { break } c := v_1.AuxInt - mem := v.Args[2] if !(is32Bit(c)) { break } @@ -3607,14 +3485,13 @@ func rewriteValueMIPS64_OpMIPS64LoweredAtomicAdd64_0(v *Value) bool { // cond: is32Bit(c) // result: (LoweredAtomicAddconst64 [c] ptr mem) for { - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVVconst { break } c := v_1.AuxInt - mem := v.Args[2] if !(is32Bit(c)) { break } @@ -3631,7 +3508,7 @@ func rewriteValueMIPS64_OpMIPS64LoweredAtomicStore32_0(v *Value) bool { // cond: // result: (LoweredAtomicStorezero32 ptr mem) for { - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVVconst { @@ -3640,7 +3517,6 @@ func rewriteValueMIPS64_OpMIPS64LoweredAtomicStore32_0(v *Value) bool { if v_1.AuxInt != 0 { break } - mem := v.Args[2] v.reset(OpMIPS64LoweredAtomicStorezero32) v.AddArg(ptr) v.AddArg(mem) @@ -3653,7 +3529,7 @@ func rewriteValueMIPS64_OpMIPS64LoweredAtomicStore64_0(v *Value) bool { // cond: // result: (LoweredAtomicStorezero64 ptr mem) for { - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVVconst { @@ -3662,7 +3538,6 @@ func rewriteValueMIPS64_OpMIPS64LoweredAtomicStore64_0(v *Value) bool { if v_1.AuxInt != 0 { break } - mem := v.Args[2] v.reset(OpMIPS64LoweredAtomicStorezero64) v.AddArg(ptr) v.AddArg(mem) @@ -3677,14 +3552,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBUload_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break } off2 := v_0.AuxInt ptr := v_0.Args[0] - mem := v.Args[1] if !(is32Bit(off1 + off2)) { break } @@ -3701,7 +3575,7 @@ func rewriteValueMIPS64_OpMIPS64MOVBUload_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -3709,7 +3583,6 @@ func rewriteValueMIPS64_OpMIPS64MOVBUload_0(v *Value) bool { off2 := v_0.AuxInt sym2 := v_0.Aux ptr := v_0.Args[0] - mem := v.Args[1] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -3770,14 +3643,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBload_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break } off2 := v_0.AuxInt ptr := v_0.Args[0] - mem := v.Args[1] if !(is32Bit(off1 + off2)) { break } @@ -3794,7 +3666,7 @@ func rewriteValueMIPS64_OpMIPS64MOVBload_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -3802,7 +3674,6 @@ func rewriteValueMIPS64_OpMIPS64MOVBload_0(v *Value) bool { off2 := v_0.AuxInt sym2 := v_0.Aux ptr := v_0.Args[0] - mem := v.Args[1] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -3863,7 +3734,7 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break @@ -3871,7 +3742,6 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool { off2 := v_0.AuxInt ptr := v_0.Args[0] val := v.Args[1] - mem := v.Args[2] if !(is32Bit(off1 + off2)) { break } @@ -3889,7 +3759,7 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[2] + mem := v.Args[2] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -3898,7 +3768,6 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool { sym2 := v_0.Aux ptr := v_0.Args[0] val := v.Args[1] - mem := v.Args[2] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -3916,7 +3785,7 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVVconst { @@ -3925,7 +3794,6 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool { if v_1.AuxInt != 0 { break } - mem := v.Args[2] v.reset(OpMIPS64MOVBstorezero) v.AuxInt = off v.Aux = sym @@ -3939,14 +3807,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVBreg { break } x := v_1.Args[0] - mem := v.Args[2] v.reset(OpMIPS64MOVBstore) v.AuxInt = off v.Aux = sym @@ -3961,14 +3828,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVBUreg { break } x := v_1.Args[0] - mem := v.Args[2] v.reset(OpMIPS64MOVBstore) v.AuxInt = off v.Aux = sym @@ -3983,14 +3849,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVHreg { break } x := v_1.Args[0] - mem := v.Args[2] v.reset(OpMIPS64MOVBstore) v.AuxInt = off v.Aux = sym @@ -4005,14 +3870,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVHUreg { break } x := v_1.Args[0] - mem := v.Args[2] v.reset(OpMIPS64MOVBstore) v.AuxInt = off v.Aux = sym @@ -4027,14 +3891,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVWreg { break } x := v_1.Args[0] - mem := v.Args[2] v.reset(OpMIPS64MOVBstore) v.AuxInt = off v.Aux = sym @@ -4049,14 +3912,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVWUreg { break } x := v_1.Args[0] - mem := v.Args[2] v.reset(OpMIPS64MOVBstore) v.AuxInt = off v.Aux = sym @@ -4074,14 +3936,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBstorezero_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break } off2 := v_0.AuxInt ptr := v_0.Args[0] - mem := v.Args[1] if !(is32Bit(off1 + off2)) { break } @@ -4098,7 +3959,7 @@ func rewriteValueMIPS64_OpMIPS64MOVBstorezero_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -4106,7 +3967,6 @@ func rewriteValueMIPS64_OpMIPS64MOVBstorezero_0(v *Value) bool { off2 := v_0.AuxInt sym2 := v_0.Aux ptr := v_0.Args[0] - mem := v.Args[1] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -4126,14 +3986,13 @@ func rewriteValueMIPS64_OpMIPS64MOVDload_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break } off2 := v_0.AuxInt ptr := v_0.Args[0] - mem := v.Args[1] if !(is32Bit(off1 + off2)) { break } @@ -4150,7 +4009,7 @@ func rewriteValueMIPS64_OpMIPS64MOVDload_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -4158,7 +4017,6 @@ func rewriteValueMIPS64_OpMIPS64MOVDload_0(v *Value) bool { off2 := v_0.AuxInt sym2 := v_0.Aux ptr := v_0.Args[0] - mem := v.Args[1] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -4178,7 +4036,7 @@ func rewriteValueMIPS64_OpMIPS64MOVDstore_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break @@ -4186,7 +4044,6 @@ func rewriteValueMIPS64_OpMIPS64MOVDstore_0(v *Value) bool { off2 := v_0.AuxInt ptr := v_0.Args[0] val := v.Args[1] - mem := v.Args[2] if !(is32Bit(off1 + off2)) { break } @@ -4204,7 +4061,7 @@ func rewriteValueMIPS64_OpMIPS64MOVDstore_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[2] + mem := v.Args[2] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -4213,7 +4070,6 @@ func rewriteValueMIPS64_OpMIPS64MOVDstore_0(v *Value) bool { sym2 := v_0.Aux ptr := v_0.Args[0] val := v.Args[1] - mem := v.Args[2] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -4234,14 +4090,13 @@ func rewriteValueMIPS64_OpMIPS64MOVFload_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break } off2 := v_0.AuxInt ptr := v_0.Args[0] - mem := v.Args[1] if !(is32Bit(off1 + off2)) { break } @@ -4258,7 +4113,7 @@ func rewriteValueMIPS64_OpMIPS64MOVFload_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -4266,7 +4121,6 @@ func rewriteValueMIPS64_OpMIPS64MOVFload_0(v *Value) bool { off2 := v_0.AuxInt sym2 := v_0.Aux ptr := v_0.Args[0] - mem := v.Args[1] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -4286,7 +4140,7 @@ func rewriteValueMIPS64_OpMIPS64MOVFstore_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break @@ -4294,7 +4148,6 @@ func rewriteValueMIPS64_OpMIPS64MOVFstore_0(v *Value) bool { off2 := v_0.AuxInt ptr := v_0.Args[0] val := v.Args[1] - mem := v.Args[2] if !(is32Bit(off1 + off2)) { break } @@ -4312,7 +4165,7 @@ func rewriteValueMIPS64_OpMIPS64MOVFstore_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[2] + mem := v.Args[2] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -4321,7 +4174,6 @@ func rewriteValueMIPS64_OpMIPS64MOVFstore_0(v *Value) bool { sym2 := v_0.Aux ptr := v_0.Args[0] val := v.Args[1] - mem := v.Args[2] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -4342,14 +4194,13 @@ func rewriteValueMIPS64_OpMIPS64MOVHUload_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break } off2 := v_0.AuxInt ptr := v_0.Args[0] - mem := v.Args[1] if !(is32Bit(off1 + off2)) { break } @@ -4366,7 +4217,7 @@ func rewriteValueMIPS64_OpMIPS64MOVHUload_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -4374,7 +4225,6 @@ func rewriteValueMIPS64_OpMIPS64MOVHUload_0(v *Value) bool { off2 := v_0.AuxInt sym2 := v_0.Aux ptr := v_0.Args[0] - mem := v.Args[1] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -4460,14 +4310,13 @@ func rewriteValueMIPS64_OpMIPS64MOVHload_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break } off2 := v_0.AuxInt ptr := v_0.Args[0] - mem := v.Args[1] if !(is32Bit(off1 + off2)) { break } @@ -4484,7 +4333,7 @@ func rewriteValueMIPS64_OpMIPS64MOVHload_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -4492,7 +4341,6 @@ func rewriteValueMIPS64_OpMIPS64MOVHload_0(v *Value) bool { off2 := v_0.AuxInt sym2 := v_0.Aux ptr := v_0.Args[0] - mem := v.Args[1] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -4603,7 +4451,7 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break @@ -4611,7 +4459,6 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool { off2 := v_0.AuxInt ptr := v_0.Args[0] val := v.Args[1] - mem := v.Args[2] if !(is32Bit(off1 + off2)) { break } @@ -4629,7 +4476,7 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[2] + mem := v.Args[2] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -4638,7 +4485,6 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool { sym2 := v_0.Aux ptr := v_0.Args[0] val := v.Args[1] - mem := v.Args[2] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -4656,7 +4502,7 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVVconst { @@ -4665,7 +4511,6 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool { if v_1.AuxInt != 0 { break } - mem := v.Args[2] v.reset(OpMIPS64MOVHstorezero) v.AuxInt = off v.Aux = sym @@ -4679,14 +4524,13 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVHreg { break } x := v_1.Args[0] - mem := v.Args[2] v.reset(OpMIPS64MOVHstore) v.AuxInt = off v.Aux = sym @@ -4701,14 +4545,13 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVHUreg { break } x := v_1.Args[0] - mem := v.Args[2] v.reset(OpMIPS64MOVHstore) v.AuxInt = off v.Aux = sym @@ -4723,14 +4566,13 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVWreg { break } x := v_1.Args[0] - mem := v.Args[2] v.reset(OpMIPS64MOVHstore) v.AuxInt = off v.Aux = sym @@ -4745,14 +4587,13 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVWUreg { break } x := v_1.Args[0] - mem := v.Args[2] v.reset(OpMIPS64MOVHstore) v.AuxInt = off v.Aux = sym @@ -4770,14 +4611,13 @@ func rewriteValueMIPS64_OpMIPS64MOVHstorezero_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break } off2 := v_0.AuxInt ptr := v_0.Args[0] - mem := v.Args[1] if !(is32Bit(off1 + off2)) { break } @@ -4794,7 +4634,7 @@ func rewriteValueMIPS64_OpMIPS64MOVHstorezero_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -4802,7 +4642,6 @@ func rewriteValueMIPS64_OpMIPS64MOVHstorezero_0(v *Value) bool { off2 := v_0.AuxInt sym2 := v_0.Aux ptr := v_0.Args[0] - mem := v.Args[1] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -4822,14 +4661,13 @@ func rewriteValueMIPS64_OpMIPS64MOVVload_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break } off2 := v_0.AuxInt ptr := v_0.Args[0] - mem := v.Args[1] if !(is32Bit(off1 + off2)) { break } @@ -4846,7 +4684,7 @@ func rewriteValueMIPS64_OpMIPS64MOVVload_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -4854,7 +4692,6 @@ func rewriteValueMIPS64_OpMIPS64MOVVload_0(v *Value) bool { off2 := v_0.AuxInt sym2 := v_0.Aux ptr := v_0.Args[0] - mem := v.Args[1] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -4902,7 +4739,7 @@ func rewriteValueMIPS64_OpMIPS64MOVVstore_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break @@ -4910,7 +4747,6 @@ func rewriteValueMIPS64_OpMIPS64MOVVstore_0(v *Value) bool { off2 := v_0.AuxInt ptr := v_0.Args[0] val := v.Args[1] - mem := v.Args[2] if !(is32Bit(off1 + off2)) { break } @@ -4928,7 +4764,7 @@ func rewriteValueMIPS64_OpMIPS64MOVVstore_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[2] + mem := v.Args[2] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -4937,7 +4773,6 @@ func rewriteValueMIPS64_OpMIPS64MOVVstore_0(v *Value) bool { sym2 := v_0.Aux ptr := v_0.Args[0] val := v.Args[1] - mem := v.Args[2] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -4955,7 +4790,7 @@ func rewriteValueMIPS64_OpMIPS64MOVVstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVVconst { @@ -4964,7 +4799,6 @@ func rewriteValueMIPS64_OpMIPS64MOVVstore_0(v *Value) bool { if v_1.AuxInt != 0 { break } - mem := v.Args[2] v.reset(OpMIPS64MOVVstorezero) v.AuxInt = off v.Aux = sym @@ -4981,14 +4815,13 @@ func rewriteValueMIPS64_OpMIPS64MOVVstorezero_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break } off2 := v_0.AuxInt ptr := v_0.Args[0] - mem := v.Args[1] if !(is32Bit(off1 + off2)) { break } @@ -5005,7 +4838,7 @@ func rewriteValueMIPS64_OpMIPS64MOVVstorezero_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -5013,7 +4846,6 @@ func rewriteValueMIPS64_OpMIPS64MOVVstorezero_0(v *Value) bool { off2 := v_0.AuxInt sym2 := v_0.Aux ptr := v_0.Args[0] - mem := v.Args[1] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -5033,14 +4865,13 @@ func rewriteValueMIPS64_OpMIPS64MOVWUload_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break } off2 := v_0.AuxInt ptr := v_0.Args[0] - mem := v.Args[1] if !(is32Bit(off1 + off2)) { break } @@ -5057,7 +4888,7 @@ func rewriteValueMIPS64_OpMIPS64MOVWUload_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -5065,7 +4896,6 @@ func rewriteValueMIPS64_OpMIPS64MOVWUload_0(v *Value) bool { off2 := v_0.AuxInt sym2 := v_0.Aux ptr := v_0.Args[0] - mem := v.Args[1] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -5176,14 +5006,13 @@ func rewriteValueMIPS64_OpMIPS64MOVWload_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break } off2 := v_0.AuxInt ptr := v_0.Args[0] - mem := v.Args[1] if !(is32Bit(off1 + off2)) { break } @@ -5200,7 +5029,7 @@ func rewriteValueMIPS64_OpMIPS64MOVWload_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -5208,7 +5037,6 @@ func rewriteValueMIPS64_OpMIPS64MOVWload_0(v *Value) bool { off2 := v_0.AuxInt sym2 := v_0.Aux ptr := v_0.Args[0] - mem := v.Args[1] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -5372,7 +5200,7 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break @@ -5380,7 +5208,6 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool { off2 := v_0.AuxInt ptr := v_0.Args[0] val := v.Args[1] - mem := v.Args[2] if !(is32Bit(off1 + off2)) { break } @@ -5398,7 +5225,7 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[2] + mem := v.Args[2] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -5407,7 +5234,6 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool { sym2 := v_0.Aux ptr := v_0.Args[0] val := v.Args[1] - mem := v.Args[2] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -5425,7 +5251,7 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVVconst { @@ -5434,7 +5260,6 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool { if v_1.AuxInt != 0 { break } - mem := v.Args[2] v.reset(OpMIPS64MOVWstorezero) v.AuxInt = off v.Aux = sym @@ -5448,14 +5273,13 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVWreg { break } x := v_1.Args[0] - mem := v.Args[2] v.reset(OpMIPS64MOVWstore) v.AuxInt = off v.Aux = sym @@ -5470,14 +5294,13 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool { for { off := v.AuxInt sym := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] v_1 := v.Args[1] if v_1.Op != OpMIPS64MOVWUreg { break } x := v_1.Args[0] - mem := v.Args[2] v.reset(OpMIPS64MOVWstore) v.AuxInt = off v.Aux = sym @@ -5495,14 +5318,13 @@ func rewriteValueMIPS64_OpMIPS64MOVWstorezero_0(v *Value) bool { for { off1 := v.AuxInt sym := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64ADDVconst { break } off2 := v_0.AuxInt ptr := v_0.Args[0] - mem := v.Args[1] if !(is32Bit(off1 + off2)) { break } @@ -5519,7 +5341,7 @@ func rewriteValueMIPS64_OpMIPS64MOVWstorezero_0(v *Value) bool { for { off1 := v.AuxInt sym1 := v.Aux - _ = v.Args[1] + mem := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVaddr { break @@ -5527,7 +5349,6 @@ func rewriteValueMIPS64_OpMIPS64MOVWstorezero_0(v *Value) bool { off2 := v_0.AuxInt sym2 := v_0.Aux ptr := v_0.Args[0] - mem := v.Args[1] if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) { break } @@ -5580,13 +5401,12 @@ func rewriteValueMIPS64_OpMIPS64NOR_0(v *Value) bool { // cond: is32Bit(c) // result: (NORconst [c] x) for { - _ = v.Args[1] + x := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVconst { break } c := v_0.AuxInt - x := v.Args[1] if !(is32Bit(c)) { break } @@ -5638,13 +5458,12 @@ func rewriteValueMIPS64_OpMIPS64OR_0(v *Value) bool { // cond: is32Bit(c) // result: (ORconst [c] x) for { - _ = v.Args[1] + x := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVconst { break } c := v_0.AuxInt - x := v.Args[1] if !(is32Bit(c)) { break } @@ -5657,9 +5476,8 @@ func rewriteValueMIPS64_OpMIPS64OR_0(v *Value) bool { // cond: // result: x for { - _ = v.Args[1] - x := v.Args[0] - if x != v.Args[1] { + x := v.Args[1] + if x != v.Args[0] { break } v.reset(OpCopy) @@ -5734,13 +5552,12 @@ func rewriteValueMIPS64_OpMIPS64SGT_0(v *Value) bool { // cond: is32Bit(c) // result: (SGTconst [c] x) for { - _ = v.Args[1] + x := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVconst { break } c := v_0.AuxInt - x := v.Args[1] if !(is32Bit(c)) { break } @@ -5756,13 +5573,12 @@ func rewriteValueMIPS64_OpMIPS64SGTU_0(v *Value) bool { // cond: is32Bit(c) // result: (SGTUconst [c] x) for { - _ = v.Args[1] + x := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVconst { break } c := v_0.AuxInt - x := v.Args[1] if !(is32Bit(c)) { break } @@ -6279,9 +6095,8 @@ func rewriteValueMIPS64_OpMIPS64SUBV_0(v *Value) bool { // cond: // result: (MOVVconst [0]) for { - _ = v.Args[1] - x := v.Args[0] - if x != v.Args[1] { + x := v.Args[1] + if x != v.Args[0] { break } v.reset(OpMIPS64MOVVconst) @@ -6292,7 +6107,7 @@ func rewriteValueMIPS64_OpMIPS64SUBV_0(v *Value) bool { // cond: // result: (NEGV x) for { - _ = v.Args[1] + x := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVconst { break @@ -6300,7 +6115,6 @@ func rewriteValueMIPS64_OpMIPS64SUBV_0(v *Value) bool { if v_0.AuxInt != 0 { break } - x := v.Args[1] v.reset(OpMIPS64NEGV) v.AddArg(x) return true @@ -6399,13 +6213,12 @@ func rewriteValueMIPS64_OpMIPS64XOR_0(v *Value) bool { // cond: is32Bit(c) // result: (XORconst [c] x) for { - _ = v.Args[1] + x := v.Args[1] v_0 := v.Args[0] if v_0.Op != OpMIPS64MOVVconst { break } c := v_0.AuxInt - x := v.Args[1] if !(is32Bit(c)) { break } @@ -6418,9 +6231,8 @@ func rewriteValueMIPS64_OpMIPS64XOR_0(v *Value) bool { // cond: // result: (MOVVconst [0]) for { - _ = v.Args[1] - x := v.Args[0] - if x != v.Args[1] { + x := v.Args[1] + if x != v.Args[0] { break } v.reset(OpMIPS64MOVVconst) @@ -6498,9 +6310,8 @@ func rewriteValueMIPS64_OpMod16_0(v *Value) bool { // cond: // result: (Select0 (DIVV (SignExt16to64 x) (SignExt16to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect0) v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64)) v1 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64) @@ -6520,9 +6331,8 @@ func rewriteValueMIPS64_OpMod16u_0(v *Value) bool { // cond: // result: (Select0 (DIVVU (ZeroExt16to64 x) (ZeroExt16to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect0) v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64)) v1 := b.NewValue0(v.Pos, OpZeroExt16to64, typ.UInt64) @@ -6542,9 +6352,8 @@ func rewriteValueMIPS64_OpMod32_0(v *Value) bool { // cond: // result: (Select0 (DIVV (SignExt32to64 x) (SignExt32to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect0) v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64)) v1 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64) @@ -6564,9 +6373,8 @@ func rewriteValueMIPS64_OpMod32u_0(v *Value) bool { // cond: // result: (Select0 (DIVVU (ZeroExt32to64 x) (ZeroExt32to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect0) v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64)) v1 := b.NewValue0(v.Pos, OpZeroExt32to64, typ.UInt64) @@ -6586,9 +6394,8 @@ func rewriteValueMIPS64_OpMod64_0(v *Value) bool { // cond: // result: (Select0 (DIVV x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect0) v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64)) v0.AddArg(x) @@ -6604,9 +6411,8 @@ func rewriteValueMIPS64_OpMod64u_0(v *Value) bool { // cond: // result: (Select0 (DIVVU x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect0) v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64)) v0.AddArg(x) @@ -6622,9 +6428,8 @@ func rewriteValueMIPS64_OpMod8_0(v *Value) bool { // cond: // result: (Select0 (DIVV (SignExt8to64 x) (SignExt8to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect0) v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64)) v1 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64) @@ -6644,9 +6449,8 @@ func rewriteValueMIPS64_OpMod8u_0(v *Value) bool { // cond: // result: (Select0 (DIVVU (ZeroExt8to64 x) (ZeroExt8to64 y))) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect0) v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64)) v1 := b.NewValue0(v.Pos, OpZeroExt8to64, typ.UInt64) @@ -6669,7 +6473,6 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool { if v.AuxInt != 0 { break } - _ = v.Args[2] mem := v.Args[2] v.reset(OpCopy) v.Type = mem.Type @@ -6683,10 +6486,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool { if v.AuxInt != 1 { break } - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] v.reset(OpMIPS64MOVBstore) v.AddArg(dst) v0 := b.NewValue0(v.Pos, OpMIPS64MOVBload, typ.Int8) @@ -6704,10 +6506,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool { break } t := v.Aux - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Alignment()%2 == 0) { break } @@ -6727,10 +6528,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool { if v.AuxInt != 2 { break } - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] v.reset(OpMIPS64MOVBstore) v.AuxInt = 1 v.AddArg(dst) @@ -6757,10 +6557,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool { break } t := v.Aux - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Alignment()%4 == 0) { break } @@ -6781,10 +6580,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool { break } t := v.Aux - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Alignment()%2 == 0) { break } @@ -6813,10 +6611,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool { if v.AuxInt != 4 { break } - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] v.reset(OpMIPS64MOVBstore) v.AuxInt = 3 v.AddArg(dst) @@ -6861,10 +6658,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool { break } t := v.Aux - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Alignment()%8 == 0) { break } @@ -6885,10 +6681,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool { break } t := v.Aux - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Alignment()%4 == 0) { break } @@ -6918,10 +6713,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool { break } t := v.Aux - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Alignment()%2 == 0) { break } @@ -6974,10 +6768,9 @@ func rewriteValueMIPS64_OpMove_10(v *Value) bool { if v.AuxInt != 3 { break } - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] v.reset(OpMIPS64MOVBstore) v.AuxInt = 2 v.AddArg(dst) @@ -7013,10 +6806,9 @@ func rewriteValueMIPS64_OpMove_10(v *Value) bool { break } t := v.Aux - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Alignment()%2 == 0) { break } @@ -7055,10 +6847,9 @@ func rewriteValueMIPS64_OpMove_10(v *Value) bool { break } t := v.Aux - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Alignment()%4 == 0) { break } @@ -7097,10 +6888,9 @@ func rewriteValueMIPS64_OpMove_10(v *Value) bool { break } t := v.Aux - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Alignment()%8 == 0) { break } @@ -7130,10 +6920,9 @@ func rewriteValueMIPS64_OpMove_10(v *Value) bool { break } t := v.Aux - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Alignment()%8 == 0) { break } @@ -7170,10 +6959,9 @@ func rewriteValueMIPS64_OpMove_10(v *Value) bool { for { s := v.AuxInt t := v.Aux - _ = v.Args[2] + mem := v.Args[2] dst := v.Args[0] src := v.Args[1] - mem := v.Args[2] if !(s > 24 || t.(*types.Type).Alignment()%8 != 0) { break } @@ -7197,9 +6985,8 @@ func rewriteValueMIPS64_OpMul16_0(v *Value) bool { // cond: // result: (Select1 (MULVU x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect1) v0 := b.NewValue0(v.Pos, OpMIPS64MULVU, types.NewTuple(typ.UInt64, typ.UInt64)) v0.AddArg(x) @@ -7215,9 +7002,8 @@ func rewriteValueMIPS64_OpMul32_0(v *Value) bool { // cond: // result: (Select1 (MULVU x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect1) v0 := b.NewValue0(v.Pos, OpMIPS64MULVU, types.NewTuple(typ.UInt64, typ.UInt64)) v0.AddArg(x) @@ -7231,9 +7017,8 @@ func rewriteValueMIPS64_OpMul32F_0(v *Value) bool { // cond: // result: (MULF x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64MULF) v.AddArg(x) v.AddArg(y) @@ -7247,9 +7032,8 @@ func rewriteValueMIPS64_OpMul64_0(v *Value) bool { // cond: // result: (Select1 (MULVU x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect1) v0 := b.NewValue0(v.Pos, OpMIPS64MULVU, types.NewTuple(typ.UInt64, typ.UInt64)) v0.AddArg(x) @@ -7263,9 +7047,8 @@ func rewriteValueMIPS64_OpMul64F_0(v *Value) bool { // cond: // result: (MULD x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64MULD) v.AddArg(x) v.AddArg(y) @@ -7279,9 +7062,8 @@ func rewriteValueMIPS64_OpMul8_0(v *Value) bool { // cond: // result: (Select1 (MULVU x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpSelect1) v0 := b.NewValue0(v.Pos, OpMIPS64MULVU, types.NewTuple(typ.UInt64, typ.UInt64)) v0.AddArg(x) @@ -7363,9 +7145,8 @@ func rewriteValueMIPS64_OpNeq16_0(v *Value) bool { // cond: // result: (SGTU (XOR (ZeroExt16to32 x) (ZeroExt16to64 y)) (MOVVconst [0])) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpMIPS64XOR, typ.UInt64) v1 := b.NewValue0(v.Pos, OpZeroExt16to32, typ.UInt32) @@ -7388,9 +7169,8 @@ func rewriteValueMIPS64_OpNeq32_0(v *Value) bool { // cond: // result: (SGTU (XOR (ZeroExt32to64 x) (ZeroExt32to64 y)) (MOVVconst [0])) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpMIPS64XOR, typ.UInt64) v1 := b.NewValue0(v.Pos, OpZeroExt32to64, typ.UInt64) @@ -7412,9 +7192,8 @@ func rewriteValueMIPS64_OpNeq32F_0(v *Value) bool { // cond: // result: (FPFlagFalse (CMPEQF x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64FPFlagFalse) v0 := b.NewValue0(v.Pos, OpMIPS64CMPEQF, types.TypeFlags) v0.AddArg(x) @@ -7430,9 +7209,8 @@ func rewriteValueMIPS64_OpNeq64_0(v *Value) bool { // cond: // result: (SGTU (XOR x y) (MOVVconst [0])) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpMIPS64XOR, typ.UInt64) v0.AddArg(x) @@ -7450,9 +7228,8 @@ func rewriteValueMIPS64_OpNeq64F_0(v *Value) bool { // cond: // result: (FPFlagFalse (CMPEQD x y)) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64FPFlagFalse) v0 := b.NewValue0(v.Pos, OpMIPS64CMPEQD, types.TypeFlags) v0.AddArg(x) @@ -7468,9 +7245,8 @@ func rewriteValueMIPS64_OpNeq8_0(v *Value) bool { // cond: // result: (SGTU (XOR (ZeroExt8to64 x) (ZeroExt8to64 y)) (MOVVconst [0])) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpMIPS64XOR, typ.UInt64) v1 := b.NewValue0(v.Pos, OpZeroExt8to64, typ.UInt64) @@ -7491,9 +7267,8 @@ func rewriteValueMIPS64_OpNeqB_0(v *Value) bool { // cond: // result: (XOR x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v.AddArg(x) v.AddArg(y) @@ -7507,9 +7282,8 @@ func rewriteValueMIPS64_OpNeqPtr_0(v *Value) bool { // cond: // result: (SGTU (XOR x y) (MOVVconst [0])) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SGTU) v0 := b.NewValue0(v.Pos, OpMIPS64XOR, typ.UInt64) v0.AddArg(x) @@ -7526,9 +7300,8 @@ func rewriteValueMIPS64_OpNilCheck_0(v *Value) bool { // cond: // result: (LoweredNilCheck ptr mem) for { - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] v.reset(OpMIPS64LoweredNilCheck) v.AddArg(ptr) v.AddArg(mem) @@ -7579,9 +7352,8 @@ func rewriteValueMIPS64_OpOr16_0(v *Value) bool { // cond: // result: (OR x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64OR) v.AddArg(x) v.AddArg(y) @@ -7593,9 +7365,8 @@ func rewriteValueMIPS64_OpOr32_0(v *Value) bool { // cond: // result: (OR x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64OR) v.AddArg(x) v.AddArg(y) @@ -7607,9 +7378,8 @@ func rewriteValueMIPS64_OpOr64_0(v *Value) bool { // cond: // result: (OR x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64OR) v.AddArg(x) v.AddArg(y) @@ -7621,9 +7391,8 @@ func rewriteValueMIPS64_OpOr8_0(v *Value) bool { // cond: // result: (OR x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64OR) v.AddArg(x) v.AddArg(y) @@ -7635,9 +7404,8 @@ func rewriteValueMIPS64_OpOrB_0(v *Value) bool { // cond: // result: (OR x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64OR) v.AddArg(x) v.AddArg(y) @@ -7676,9 +7444,8 @@ func rewriteValueMIPS64_OpRsh16Ux16_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SRLV <t> (ZeroExt16to64 x) (ZeroExt16to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -7709,9 +7476,8 @@ func rewriteValueMIPS64_OpRsh16Ux32_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SRLV <t> (ZeroExt16to64 x) (ZeroExt32to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -7742,9 +7508,8 @@ func rewriteValueMIPS64_OpRsh16Ux64_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SRLV <t> (ZeroExt16to64 x) y)) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -7771,9 +7536,8 @@ func rewriteValueMIPS64_OpRsh16Ux8_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SRLV <t> (ZeroExt16to64 x) (ZeroExt8to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -7804,9 +7568,8 @@ func rewriteValueMIPS64_OpRsh16x16_0(v *Value) bool { // result: (SRAV (SignExt16to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt16to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt16to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v0 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64) v0.AddArg(x) @@ -7837,9 +7600,8 @@ func rewriteValueMIPS64_OpRsh16x32_0(v *Value) bool { // result: (SRAV (SignExt16to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt32to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt32to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v0 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64) v0.AddArg(x) @@ -7870,9 +7632,8 @@ func rewriteValueMIPS64_OpRsh16x64_0(v *Value) bool { // result: (SRAV (SignExt16to64 x) (OR <t> (NEGV <t> (SGTU y (MOVVconst <typ.UInt64> [63]))) y)) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v0 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64) v0.AddArg(x) @@ -7899,9 +7660,8 @@ func rewriteValueMIPS64_OpRsh16x8_0(v *Value) bool { // result: (SRAV (SignExt16to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt8to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt8to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v0 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64) v0.AddArg(x) @@ -7932,9 +7692,8 @@ func rewriteValueMIPS64_OpRsh32Ux16_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SRLV <t> (ZeroExt32to64 x) (ZeroExt16to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -7965,9 +7724,8 @@ func rewriteValueMIPS64_OpRsh32Ux32_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SRLV <t> (ZeroExt32to64 x) (ZeroExt32to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -7998,9 +7756,8 @@ func rewriteValueMIPS64_OpRsh32Ux64_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SRLV <t> (ZeroExt32to64 x) y)) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -8027,9 +7784,8 @@ func rewriteValueMIPS64_OpRsh32Ux8_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SRLV <t> (ZeroExt32to64 x) (ZeroExt8to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -8060,9 +7816,8 @@ func rewriteValueMIPS64_OpRsh32x16_0(v *Value) bool { // result: (SRAV (SignExt32to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt16to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt16to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v0 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64) v0.AddArg(x) @@ -8093,9 +7848,8 @@ func rewriteValueMIPS64_OpRsh32x32_0(v *Value) bool { // result: (SRAV (SignExt32to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt32to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt32to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v0 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64) v0.AddArg(x) @@ -8126,9 +7880,8 @@ func rewriteValueMIPS64_OpRsh32x64_0(v *Value) bool { // result: (SRAV (SignExt32to64 x) (OR <t> (NEGV <t> (SGTU y (MOVVconst <typ.UInt64> [63]))) y)) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v0 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64) v0.AddArg(x) @@ -8155,9 +7908,8 @@ func rewriteValueMIPS64_OpRsh32x8_0(v *Value) bool { // result: (SRAV (SignExt32to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt8to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt8to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v0 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64) v0.AddArg(x) @@ -8188,9 +7940,8 @@ func rewriteValueMIPS64_OpRsh64Ux16_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SRLV <t> x (ZeroExt16to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -8219,9 +7970,8 @@ func rewriteValueMIPS64_OpRsh64Ux32_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SRLV <t> x (ZeroExt32to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -8250,9 +8000,8 @@ func rewriteValueMIPS64_OpRsh64Ux64_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SRLV <t> x y)) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -8277,9 +8026,8 @@ func rewriteValueMIPS64_OpRsh64Ux8_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SRLV <t> x (ZeroExt8to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -8308,9 +8056,8 @@ func rewriteValueMIPS64_OpRsh64x16_0(v *Value) bool { // result: (SRAV x (OR <t> (NEGV <t> (SGTU (ZeroExt16to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt16to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v.AddArg(x) v0 := b.NewValue0(v.Pos, OpMIPS64OR, t) @@ -8339,9 +8086,8 @@ func rewriteValueMIPS64_OpRsh64x32_0(v *Value) bool { // result: (SRAV x (OR <t> (NEGV <t> (SGTU (ZeroExt32to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt32to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v.AddArg(x) v0 := b.NewValue0(v.Pos, OpMIPS64OR, t) @@ -8370,9 +8116,8 @@ func rewriteValueMIPS64_OpRsh64x64_0(v *Value) bool { // result: (SRAV x (OR <t> (NEGV <t> (SGTU y (MOVVconst <typ.UInt64> [63]))) y)) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v.AddArg(x) v0 := b.NewValue0(v.Pos, OpMIPS64OR, t) @@ -8397,9 +8142,8 @@ func rewriteValueMIPS64_OpRsh64x8_0(v *Value) bool { // result: (SRAV x (OR <t> (NEGV <t> (SGTU (ZeroExt8to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt8to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v.AddArg(x) v0 := b.NewValue0(v.Pos, OpMIPS64OR, t) @@ -8428,9 +8172,8 @@ func rewriteValueMIPS64_OpRsh8Ux16_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SRLV <t> (ZeroExt8to64 x) (ZeroExt16to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -8461,9 +8204,8 @@ func rewriteValueMIPS64_OpRsh8Ux32_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SRLV <t> (ZeroExt8to64 x) (ZeroExt32to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -8494,9 +8236,8 @@ func rewriteValueMIPS64_OpRsh8Ux64_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SRLV <t> (ZeroExt8to64 x) y)) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -8523,9 +8264,8 @@ func rewriteValueMIPS64_OpRsh8Ux8_0(v *Value) bool { // result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SRLV <t> (ZeroExt8to64 x) (ZeroExt8to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64AND) v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t) v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool) @@ -8556,9 +8296,8 @@ func rewriteValueMIPS64_OpRsh8x16_0(v *Value) bool { // result: (SRAV (SignExt8to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt16to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt16to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v0 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64) v0.AddArg(x) @@ -8589,9 +8328,8 @@ func rewriteValueMIPS64_OpRsh8x32_0(v *Value) bool { // result: (SRAV (SignExt8to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt32to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt32to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v0 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64) v0.AddArg(x) @@ -8622,9 +8360,8 @@ func rewriteValueMIPS64_OpRsh8x64_0(v *Value) bool { // result: (SRAV (SignExt8to64 x) (OR <t> (NEGV <t> (SGTU y (MOVVconst <typ.UInt64> [63]))) y)) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v0 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64) v0.AddArg(x) @@ -8651,9 +8388,8 @@ func rewriteValueMIPS64_OpRsh8x8_0(v *Value) bool { // result: (SRAV (SignExt8to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt8to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt8to64 y))) for { t := v.Type - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SRAV) v0 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64) v0.AddArg(x) @@ -8798,7 +8534,7 @@ func rewriteValueMIPS64_OpSelect1_0(v *Value) bool { if v_0.Op != OpMIPS64MULVU { break } - _ = v_0.Args[1] + x := v_0.Args[1] v_0_0 := v_0.Args[0] if v_0_0.Op != OpMIPS64MOVVconst { break @@ -8806,7 +8542,6 @@ func rewriteValueMIPS64_OpSelect1_0(v *Value) bool { if v_0_0.AuxInt != -1 { break } - x := v_0.Args[1] v.reset(OpMIPS64NEGV) v.AddArg(x) return true @@ -8881,7 +8616,7 @@ func rewriteValueMIPS64_OpSelect1_0(v *Value) bool { if v_0.Op != OpMIPS64MULVU { break } - _ = v_0.Args[1] + x := v_0.Args[1] v_0_0 := v_0.Args[0] if v_0_0.Op != OpMIPS64MOVVconst { break @@ -8889,7 +8624,6 @@ func rewriteValueMIPS64_OpSelect1_0(v *Value) bool { if v_0_0.AuxInt != 1 { break } - x := v_0.Args[1] v.reset(OpCopy) v.Type = x.Type v.AddArg(x) @@ -8926,13 +8660,12 @@ func rewriteValueMIPS64_OpSelect1_0(v *Value) bool { if v_0.Op != OpMIPS64MULVU { break } - _ = v_0.Args[1] + x := v_0.Args[1] v_0_0 := v_0.Args[0] if v_0_0.Op != OpMIPS64MOVVconst { break } c := v_0_0.AuxInt - x := v_0.Args[1] if !(isPowerOfTwo(c)) { break } @@ -8949,7 +8682,7 @@ func rewriteValueMIPS64_OpSelect1_0(v *Value) bool { if v_0.Op != OpMIPS64MULVU { break } - _ = v_0.Args[1] + x := v_0.Args[1] v_0_0 := v_0.Args[0] if v_0_0.Op != OpMIPS64MOVVconst { break @@ -8957,7 +8690,6 @@ func rewriteValueMIPS64_OpSelect1_0(v *Value) bool { if v_0_0.AuxInt != -1 { break } - x := v_0.Args[1] v.reset(OpMIPS64NEGV) v.AddArg(x) return true @@ -9034,7 +8766,7 @@ func rewriteValueMIPS64_OpSelect1_10(v *Value) bool { if v_0.Op != OpMIPS64MULVU { break } - _ = v_0.Args[1] + x := v_0.Args[1] v_0_0 := v_0.Args[0] if v_0_0.Op != OpMIPS64MOVVconst { break @@ -9042,7 +8774,6 @@ func rewriteValueMIPS64_OpSelect1_10(v *Value) bool { if v_0_0.AuxInt != 1 { break } - x := v_0.Args[1] v.reset(OpCopy) v.Type = x.Type v.AddArg(x) @@ -9078,13 +8809,12 @@ func rewriteValueMIPS64_OpSelect1_10(v *Value) bool { if v_0.Op != OpMIPS64MULVU { break } - _ = v_0.Args[1] + x := v_0.Args[1] v_0_0 := v_0.Args[0] if v_0_0.Op != OpMIPS64MOVVconst { break } c := v_0_0.AuxInt - x := v_0.Args[1] if !(isPowerOfTwo(c)) { break } @@ -9372,10 +9102,9 @@ func rewriteValueMIPS64_OpStore_0(v *Value) bool { // result: (MOVBstore ptr val mem) for { t := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] val := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Size() == 1) { break } @@ -9390,10 +9119,9 @@ func rewriteValueMIPS64_OpStore_0(v *Value) bool { // result: (MOVHstore ptr val mem) for { t := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] val := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Size() == 2) { break } @@ -9408,10 +9136,9 @@ func rewriteValueMIPS64_OpStore_0(v *Value) bool { // result: (MOVWstore ptr val mem) for { t := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] val := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Size() == 4 && !is32BitFloat(val.Type)) { break } @@ -9426,10 +9153,9 @@ func rewriteValueMIPS64_OpStore_0(v *Value) bool { // result: (MOVVstore ptr val mem) for { t := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] val := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Size() == 8 && !is64BitFloat(val.Type)) { break } @@ -9444,10 +9170,9 @@ func rewriteValueMIPS64_OpStore_0(v *Value) bool { // result: (MOVFstore ptr val mem) for { t := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] val := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Size() == 4 && is32BitFloat(val.Type)) { break } @@ -9462,10 +9187,9 @@ func rewriteValueMIPS64_OpStore_0(v *Value) bool { // result: (MOVDstore ptr val mem) for { t := v.Aux - _ = v.Args[2] + mem := v.Args[2] ptr := v.Args[0] val := v.Args[1] - mem := v.Args[2] if !(t.(*types.Type).Size() == 8 && is64BitFloat(val.Type)) { break } @@ -9482,9 +9206,8 @@ func rewriteValueMIPS64_OpSub16_0(v *Value) bool { // cond: // result: (SUBV x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SUBV) v.AddArg(x) v.AddArg(y) @@ -9496,9 +9219,8 @@ func rewriteValueMIPS64_OpSub32_0(v *Value) bool { // cond: // result: (SUBV x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SUBV) v.AddArg(x) v.AddArg(y) @@ -9510,9 +9232,8 @@ func rewriteValueMIPS64_OpSub32F_0(v *Value) bool { // cond: // result: (SUBF x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SUBF) v.AddArg(x) v.AddArg(y) @@ -9524,9 +9245,8 @@ func rewriteValueMIPS64_OpSub64_0(v *Value) bool { // cond: // result: (SUBV x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SUBV) v.AddArg(x) v.AddArg(y) @@ -9538,9 +9258,8 @@ func rewriteValueMIPS64_OpSub64F_0(v *Value) bool { // cond: // result: (SUBD x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SUBD) v.AddArg(x) v.AddArg(y) @@ -9552,9 +9271,8 @@ func rewriteValueMIPS64_OpSub8_0(v *Value) bool { // cond: // result: (SUBV x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SUBV) v.AddArg(x) v.AddArg(y) @@ -9566,9 +9284,8 @@ func rewriteValueMIPS64_OpSubPtr_0(v *Value) bool { // cond: // result: (SUBV x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64SUBV) v.AddArg(x) v.AddArg(y) @@ -9653,10 +9370,9 @@ func rewriteValueMIPS64_OpWB_0(v *Value) bool { // result: (LoweredWB {fn} destptr srcptr mem) for { fn := v.Aux - _ = v.Args[2] + mem := v.Args[2] destptr := v.Args[0] srcptr := v.Args[1] - mem := v.Args[2] v.reset(OpMIPS64LoweredWB) v.Aux = fn v.AddArg(destptr) @@ -9670,9 +9386,8 @@ func rewriteValueMIPS64_OpXor16_0(v *Value) bool { // cond: // result: (XOR x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v.AddArg(x) v.AddArg(y) @@ -9684,9 +9399,8 @@ func rewriteValueMIPS64_OpXor32_0(v *Value) bool { // cond: // result: (XOR x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v.AddArg(x) v.AddArg(y) @@ -9698,9 +9412,8 @@ func rewriteValueMIPS64_OpXor64_0(v *Value) bool { // cond: // result: (XOR x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v.AddArg(x) v.AddArg(y) @@ -9712,9 +9425,8 @@ func rewriteValueMIPS64_OpXor8_0(v *Value) bool { // cond: // result: (XOR x y) for { - _ = v.Args[1] - x := v.Args[0] y := v.Args[1] + x := v.Args[0] v.reset(OpMIPS64XOR) v.AddArg(x) v.AddArg(y) @@ -9731,7 +9443,6 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool { if v.AuxInt != 0 { break } - _ = v.Args[1] mem := v.Args[1] v.reset(OpCopy) v.Type = mem.Type @@ -9745,9 +9456,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool { if v.AuxInt != 1 { break } - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] v.reset(OpMIPS64MOVBstore) v.AddArg(ptr) v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64) @@ -9764,9 +9474,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool { break } t := v.Aux - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(t.(*types.Type).Alignment()%2 == 0) { break } @@ -9785,9 +9494,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool { if v.AuxInt != 2 { break } - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] v.reset(OpMIPS64MOVBstore) v.AuxInt = 1 v.AddArg(ptr) @@ -9812,9 +9520,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool { break } t := v.Aux - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(t.(*types.Type).Alignment()%4 == 0) { break } @@ -9834,9 +9541,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool { break } t := v.Aux - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(t.(*types.Type).Alignment()%2 == 0) { break } @@ -9863,9 +9569,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool { if v.AuxInt != 4 { break } - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] v.reset(OpMIPS64MOVBstore) v.AuxInt = 3 v.AddArg(ptr) @@ -9904,9 +9609,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool { break } t := v.Aux - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(t.(*types.Type).Alignment()%8 == 0) { break } @@ -9926,9 +9630,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool { break } t := v.Aux - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(t.(*types.Type).Alignment()%4 == 0) { break } @@ -9956,9 +9659,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool { break } t := v.Aux - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(t.(*types.Type).Alignment()%2 == 0) { break } @@ -10005,9 +9707,8 @@ func rewriteValueMIPS64_OpZero_10(v *Value) bool { if v.AuxInt != 3 { break } - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] v.reset(OpMIPS64MOVBstore) v.AuxInt = 2 v.AddArg(ptr) @@ -10039,9 +9740,8 @@ func rewriteValueMIPS64_OpZero_10(v *Value) bool { break } t := v.Aux - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(t.(*types.Type).Alignment()%2 == 0) { break } @@ -10076,9 +9776,8 @@ func rewriteValueMIPS64_OpZero_10(v *Value) bool { break } t := v.Aux - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(t.(*types.Type).Alignment()%4 == 0) { break } @@ -10113,9 +9812,8 @@ func rewriteValueMIPS64_OpZero_10(v *Value) bool { break } t := v.Aux - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(t.(*types.Type).Alignment()%8 == 0) { break } @@ -10143,9 +9841,8 @@ func rewriteValueMIPS64_OpZero_10(v *Value) bool { break } t := v.Aux - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(t.(*types.Type).Alignment()%8 == 0) { break } @@ -10178,9 +9875,8 @@ func rewriteValueMIPS64_OpZero_10(v *Value) bool { for { s := v.AuxInt t := v.Aux - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !(s%8 == 0 && s > 24 && s <= 8*128 && t.(*types.Type).Alignment()%8 == 0 && !config.noDuffDevice) { break } @@ -10196,9 +9892,8 @@ func rewriteValueMIPS64_OpZero_10(v *Value) bool { for { s := v.AuxInt t := v.Aux - _ = v.Args[1] - ptr := v.Args[0] mem := v.Args[1] + ptr := v.Args[0] if !((s > 8*128 || config.noDuffDevice) || t.(*types.Type).Alignment()%8 != 0) { break } |