]> git.openfabrics.org - ~shefty/rdma-dev.git/blob - drivers/infiniband/hw/qib/qib_iba7322.c
c881e744c091f712b8914ee7bff5bad7ad4b0d48
[~shefty/rdma-dev.git] / drivers / infiniband / hw / qib / qib_iba7322.c
1 /*
2  * Copyright (c) 2008, 2009, 2010 QLogic Corporation. All rights reserved.
3  *
4  * This software is available to you under a choice of one of two
5  * licenses.  You may choose to be licensed under the terms of the GNU
6  * General Public License (GPL) Version 2, available from the file
7  * COPYING in the main directory of this source tree, or the
8  * OpenIB.org BSD license below:
9  *
10  *     Redistribution and use in source and binary forms, with or
11  *     without modification, are permitted provided that the following
12  *     conditions are met:
13  *
14  *      - Redistributions of source code must retain the above
15  *        copyright notice, this list of conditions and the following
16  *        disclaimer.
17  *
18  *      - Redistributions in binary form must reproduce the above
19  *        copyright notice, this list of conditions and the following
20  *        disclaimer in the documentation and/or other materials
21  *        provided with the distribution.
22  *
23  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
24  * EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
25  * MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND
26  * NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS
27  * BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN
28  * ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN
29  * CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
30  * SOFTWARE.
31  */
32
33 /*
34  * This file contains all of the code that is specific to the
35  * InfiniPath 7322 chip
36  */
37
38 #include <linux/interrupt.h>
39 #include <linux/pci.h>
40 #include <linux/delay.h>
41 #include <linux/io.h>
42 #include <linux/jiffies.h>
43 #include <linux/module.h>
44 #include <rdma/ib_verbs.h>
45 #include <rdma/ib_smi.h>
46
47 #include "qib.h"
48 #include "qib_7322_regs.h"
49 #include "qib_qsfp.h"
50
51 #include "qib_mad.h"
52
53 static void qib_setup_7322_setextled(struct qib_pportdata *, u32);
54 static void qib_7322_handle_hwerrors(struct qib_devdata *, char *, size_t);
55 static void sendctrl_7322_mod(struct qib_pportdata *ppd, u32 op);
56 static irqreturn_t qib_7322intr(int irq, void *data);
57 static irqreturn_t qib_7322bufavail(int irq, void *data);
58 static irqreturn_t sdma_intr(int irq, void *data);
59 static irqreturn_t sdma_idle_intr(int irq, void *data);
60 static irqreturn_t sdma_progress_intr(int irq, void *data);
61 static irqreturn_t sdma_cleanup_intr(int irq, void *data);
62 static void qib_7322_txchk_change(struct qib_devdata *, u32, u32, u32,
63                                   struct qib_ctxtdata *rcd);
64 static u8 qib_7322_phys_portstate(u64);
65 static u32 qib_7322_iblink_state(u64);
66 static void qib_set_ib_7322_lstate(struct qib_pportdata *ppd, u16 linkcmd,
67                                    u16 linitcmd);
68 static void force_h1(struct qib_pportdata *);
69 static void adj_tx_serdes(struct qib_pportdata *);
70 static u32 qib_7322_setpbc_control(struct qib_pportdata *, u32, u8, u8);
71 static void qib_7322_mini_pcs_reset(struct qib_pportdata *);
72
73 static u32 ahb_mod(struct qib_devdata *, int, int, int, u32, u32);
74 static void ibsd_wr_allchans(struct qib_pportdata *, int, unsigned, unsigned);
75 static void serdes_7322_los_enable(struct qib_pportdata *, int);
76 static int serdes_7322_init_old(struct qib_pportdata *);
77 static int serdes_7322_init_new(struct qib_pportdata *);
78
79 #define BMASK(msb, lsb) (((1 << ((msb) + 1 - (lsb))) - 1) << (lsb))
80
81 /* LE2 serdes values for different cases */
82 #define LE2_DEFAULT 5
83 #define LE2_5m 4
84 #define LE2_QME 0
85
86 /* Below is special-purpose, so only really works for the IB SerDes blocks. */
87 #define IBSD(hw_pidx) (hw_pidx + 2)
88
89 /* these are variables for documentation and experimentation purposes */
90 static const unsigned rcv_int_timeout = 375;
91 static const unsigned rcv_int_count = 16;
92 static const unsigned sdma_idle_cnt = 64;
93
94 /* Time to stop altering Rx Equalization parameters, after link up. */
95 #define RXEQ_DISABLE_MSECS 2500
96
97 /*
98  * Number of VLs we are configured to use (to allow for more
99  * credits per vl, etc.)
100  */
101 ushort qib_num_cfg_vls = 2;
102 module_param_named(num_vls, qib_num_cfg_vls, ushort, S_IRUGO);
103 MODULE_PARM_DESC(num_vls, "Set number of Virtual Lanes to use (1-8)");
104
105 static ushort qib_chase = 1;
106 module_param_named(chase, qib_chase, ushort, S_IRUGO);
107 MODULE_PARM_DESC(chase, "Enable state chase handling");
108
109 static ushort qib_long_atten = 10; /* 10 dB ~= 5m length */
110 module_param_named(long_attenuation, qib_long_atten, ushort, S_IRUGO);
111 MODULE_PARM_DESC(long_attenuation, \
112                  "attenuation cutoff (dB) for long copper cable setup");
113
114 static ushort qib_singleport;
115 module_param_named(singleport, qib_singleport, ushort, S_IRUGO);
116 MODULE_PARM_DESC(singleport, "Use only IB port 1; more per-port buffer space");
117
118 static ushort qib_krcvq01_no_msi;
119 module_param_named(krcvq01_no_msi, qib_krcvq01_no_msi, ushort, S_IRUGO);
120 MODULE_PARM_DESC(krcvq01_no_msi, "No MSI for kctx < 2");
121
122 /*
123  * Receive header queue sizes
124  */
125 static unsigned qib_rcvhdrcnt;
126 module_param_named(rcvhdrcnt, qib_rcvhdrcnt, uint, S_IRUGO);
127 MODULE_PARM_DESC(rcvhdrcnt, "receive header count");
128
129 static unsigned qib_rcvhdrsize;
130 module_param_named(rcvhdrsize, qib_rcvhdrsize, uint, S_IRUGO);
131 MODULE_PARM_DESC(rcvhdrsize, "receive header size in 32-bit words");
132
133 static unsigned qib_rcvhdrentsize;
134 module_param_named(rcvhdrentsize, qib_rcvhdrentsize, uint, S_IRUGO);
135 MODULE_PARM_DESC(rcvhdrentsize, "receive header entry size in 32-bit words");
136
137 #define MAX_ATTEN_LEN 64 /* plenty for any real system */
138 /* for read back, default index is ~5m copper cable */
139 static char txselect_list[MAX_ATTEN_LEN] = "10";
140 static struct kparam_string kp_txselect = {
141         .string = txselect_list,
142         .maxlen = MAX_ATTEN_LEN
143 };
144 static int  setup_txselect(const char *, struct kernel_param *);
145 module_param_call(txselect, setup_txselect, param_get_string,
146                   &kp_txselect, S_IWUSR | S_IRUGO);
147 MODULE_PARM_DESC(txselect, \
148                  "Tx serdes indices (for no QSFP or invalid QSFP data)");
149
150 #define BOARD_QME7342 5
151 #define BOARD_QMH7342 6
152 #define IS_QMH(dd) (SYM_FIELD((dd)->revision, Revision, BoardID) == \
153                     BOARD_QMH7342)
154 #define IS_QME(dd) (SYM_FIELD((dd)->revision, Revision, BoardID) == \
155                     BOARD_QME7342)
156
157 #define KREG_IDX(regname)     (QIB_7322_##regname##_OFFS / sizeof(u64))
158
159 #define KREG_IBPORT_IDX(regname) ((QIB_7322_##regname##_0_OFFS / sizeof(u64)))
160
161 #define MASK_ACROSS(lsb, msb) \
162         (((1ULL << ((msb) + 1 - (lsb))) - 1) << (lsb))
163
164 #define SYM_RMASK(regname, fldname) ((u64)              \
165         QIB_7322_##regname##_##fldname##_RMASK)
166
167 #define SYM_MASK(regname, fldname) ((u64)               \
168         QIB_7322_##regname##_##fldname##_RMASK <<       \
169          QIB_7322_##regname##_##fldname##_LSB)
170
171 #define SYM_FIELD(value, regname, fldname) ((u64)       \
172         (((value) >> SYM_LSB(regname, fldname)) &       \
173          SYM_RMASK(regname, fldname)))
174
175 /* useful for things like LaFifoEmpty_0...7, TxCreditOK_0...7, etc. */
176 #define SYM_FIELD_ACROSS(value, regname, fldname, nbits) \
177         (((value) >> SYM_LSB(regname, fldname)) & MASK_ACROSS(0, nbits))
178
179 #define HWE_MASK(fldname) SYM_MASK(HwErrMask, fldname##Mask)
180 #define ERR_MASK(fldname) SYM_MASK(ErrMask, fldname##Mask)
181 #define ERR_MASK_N(fldname) SYM_MASK(ErrMask_0, fldname##Mask)
182 #define INT_MASK(fldname) SYM_MASK(IntMask, fldname##IntMask)
183 #define INT_MASK_P(fldname, port) SYM_MASK(IntMask, fldname##IntMask##_##port)
184 /* Below because most, but not all, fields of IntMask have that full suffix */
185 #define INT_MASK_PM(fldname, port) SYM_MASK(IntMask, fldname##Mask##_##port)
186
187
188 #define SYM_LSB(regname, fldname) (QIB_7322_##regname##_##fldname##_LSB)
189
190 /*
191  * the size bits give us 2^N, in KB units.  0 marks as invalid,
192  * and 7 is reserved.  We currently use only 2KB and 4KB
193  */
194 #define IBA7322_TID_SZ_SHIFT QIB_7322_RcvTIDArray0_RT_BufSize_LSB
195 #define IBA7322_TID_SZ_2K (1UL<<IBA7322_TID_SZ_SHIFT) /* 2KB */
196 #define IBA7322_TID_SZ_4K (2UL<<IBA7322_TID_SZ_SHIFT) /* 4KB */
197 #define IBA7322_TID_PA_SHIFT 11U /* TID addr in chip stored w/o low bits */
198
199 #define SendIBSLIDAssignMask \
200         QIB_7322_SendIBSLIDAssign_0_SendIBSLIDAssign_15_0_RMASK
201 #define SendIBSLMCMask \
202         QIB_7322_SendIBSLIDMask_0_SendIBSLIDMask_15_0_RMASK
203
204 #define ExtLED_IB1_YEL SYM_MASK(EXTCtrl, LEDPort0YellowOn)
205 #define ExtLED_IB1_GRN SYM_MASK(EXTCtrl, LEDPort0GreenOn)
206 #define ExtLED_IB2_YEL SYM_MASK(EXTCtrl, LEDPort1YellowOn)
207 #define ExtLED_IB2_GRN SYM_MASK(EXTCtrl, LEDPort1GreenOn)
208 #define ExtLED_IB1_MASK (ExtLED_IB1_YEL | ExtLED_IB1_GRN)
209 #define ExtLED_IB2_MASK (ExtLED_IB2_YEL | ExtLED_IB2_GRN)
210
211 #define _QIB_GPIO_SDA_NUM 1
212 #define _QIB_GPIO_SCL_NUM 0
213 #define QIB_EEPROM_WEN_NUM 14
214 #define QIB_TWSI_EEPROM_DEV 0xA2 /* All Production 7322 cards. */
215
216 /* HW counter clock is at 4nsec */
217 #define QIB_7322_PSXMITWAIT_CHECK_RATE 4000
218
219 /* full speed IB port 1 only */
220 #define PORT_SPD_CAP (QIB_IB_SDR | QIB_IB_DDR | QIB_IB_QDR)
221 #define PORT_SPD_CAP_SHIFT 3
222
223 /* full speed featuremask, both ports */
224 #define DUAL_PORT_CAP (PORT_SPD_CAP | (PORT_SPD_CAP << PORT_SPD_CAP_SHIFT))
225
226 /*
227  * This file contains almost all the chip-specific register information and
228  * access functions for the FAKED QLogic InfiniPath 7322 PCI-Express chip.
229  */
230
231 /* Use defines to tie machine-generated names to lower-case names */
232 #define kr_contextcnt KREG_IDX(ContextCnt)
233 #define kr_control KREG_IDX(Control)
234 #define kr_counterregbase KREG_IDX(CntrRegBase)
235 #define kr_errclear KREG_IDX(ErrClear)
236 #define kr_errmask KREG_IDX(ErrMask)
237 #define kr_errstatus KREG_IDX(ErrStatus)
238 #define kr_extctrl KREG_IDX(EXTCtrl)
239 #define kr_extstatus KREG_IDX(EXTStatus)
240 #define kr_gpio_clear KREG_IDX(GPIOClear)
241 #define kr_gpio_mask KREG_IDX(GPIOMask)
242 #define kr_gpio_out KREG_IDX(GPIOOut)
243 #define kr_gpio_status KREG_IDX(GPIOStatus)
244 #define kr_hwdiagctrl KREG_IDX(HwDiagCtrl)
245 #define kr_debugportval KREG_IDX(DebugPortValueReg)
246 #define kr_fmask KREG_IDX(feature_mask)
247 #define kr_act_fmask KREG_IDX(active_feature_mask)
248 #define kr_hwerrclear KREG_IDX(HwErrClear)
249 #define kr_hwerrmask KREG_IDX(HwErrMask)
250 #define kr_hwerrstatus KREG_IDX(HwErrStatus)
251 #define kr_intclear KREG_IDX(IntClear)
252 #define kr_intmask KREG_IDX(IntMask)
253 #define kr_intredirect KREG_IDX(IntRedirect0)
254 #define kr_intstatus KREG_IDX(IntStatus)
255 #define kr_pagealign KREG_IDX(PageAlign)
256 #define kr_rcvavailtimeout KREG_IDX(RcvAvailTimeOut0)
257 #define kr_rcvctrl KREG_IDX(RcvCtrl) /* Common, but chip also has per-port */
258 #define kr_rcvegrbase KREG_IDX(RcvEgrBase)
259 #define kr_rcvegrcnt KREG_IDX(RcvEgrCnt)
260 #define kr_rcvhdrcnt KREG_IDX(RcvHdrCnt)
261 #define kr_rcvhdrentsize KREG_IDX(RcvHdrEntSize)
262 #define kr_rcvhdrsize KREG_IDX(RcvHdrSize)
263 #define kr_rcvtidbase KREG_IDX(RcvTIDBase)
264 #define kr_rcvtidcnt KREG_IDX(RcvTIDCnt)
265 #define kr_revision KREG_IDX(Revision)
266 #define kr_scratch KREG_IDX(Scratch)
267 #define kr_sendbuffererror KREG_IDX(SendBufErr0) /* and base for 1 and 2 */
268 #define kr_sendcheckmask KREG_IDX(SendCheckMask0) /* and 1, 2 */
269 #define kr_sendctrl KREG_IDX(SendCtrl)
270 #define kr_sendgrhcheckmask KREG_IDX(SendGRHCheckMask0) /* and 1, 2 */
271 #define kr_sendibpktmask KREG_IDX(SendIBPacketMask0) /* and 1, 2 */
272 #define kr_sendpioavailaddr KREG_IDX(SendBufAvailAddr)
273 #define kr_sendpiobufbase KREG_IDX(SendBufBase)
274 #define kr_sendpiobufcnt KREG_IDX(SendBufCnt)
275 #define kr_sendpiosize KREG_IDX(SendBufSize)
276 #define kr_sendregbase KREG_IDX(SendRegBase)
277 #define kr_sendbufavail0 KREG_IDX(SendBufAvail0)
278 #define kr_userregbase KREG_IDX(UserRegBase)
279 #define kr_intgranted KREG_IDX(Int_Granted)
280 #define kr_vecclr_wo_int KREG_IDX(vec_clr_without_int)
281 #define kr_intblocked KREG_IDX(IntBlocked)
282 #define kr_r_access KREG_IDX(SPC_JTAG_ACCESS_REG)
283
284 /*
285  * per-port kernel registers.  Access only with qib_read_kreg_port()
286  * or qib_write_kreg_port()
287  */
288 #define krp_errclear KREG_IBPORT_IDX(ErrClear)
289 #define krp_errmask KREG_IBPORT_IDX(ErrMask)
290 #define krp_errstatus KREG_IBPORT_IDX(ErrStatus)
291 #define krp_highprio_0 KREG_IBPORT_IDX(HighPriority0)
292 #define krp_highprio_limit KREG_IBPORT_IDX(HighPriorityLimit)
293 #define krp_hrtbt_guid KREG_IBPORT_IDX(HRTBT_GUID)
294 #define krp_ib_pcsconfig KREG_IBPORT_IDX(IBPCSConfig)
295 #define krp_ibcctrl_a KREG_IBPORT_IDX(IBCCtrlA)
296 #define krp_ibcctrl_b KREG_IBPORT_IDX(IBCCtrlB)
297 #define krp_ibcctrl_c KREG_IBPORT_IDX(IBCCtrlC)
298 #define krp_ibcstatus_a KREG_IBPORT_IDX(IBCStatusA)
299 #define krp_ibcstatus_b KREG_IBPORT_IDX(IBCStatusB)
300 #define krp_txestatus KREG_IBPORT_IDX(TXEStatus)
301 #define krp_lowprio_0 KREG_IBPORT_IDX(LowPriority0)
302 #define krp_ncmodectrl KREG_IBPORT_IDX(IBNCModeCtrl)
303 #define krp_partitionkey KREG_IBPORT_IDX(RcvPartitionKey)
304 #define krp_psinterval KREG_IBPORT_IDX(PSInterval)
305 #define krp_psstart KREG_IBPORT_IDX(PSStart)
306 #define krp_psstat KREG_IBPORT_IDX(PSStat)
307 #define krp_rcvbthqp KREG_IBPORT_IDX(RcvBTHQP)
308 #define krp_rcvctrl KREG_IBPORT_IDX(RcvCtrl)
309 #define krp_rcvpktledcnt KREG_IBPORT_IDX(RcvPktLEDCnt)
310 #define krp_rcvqpmaptable KREG_IBPORT_IDX(RcvQPMapTableA)
311 #define krp_rxcreditvl0 KREG_IBPORT_IDX(RxCreditVL0)
312 #define krp_rxcreditvl15 (KREG_IBPORT_IDX(RxCreditVL0)+15)
313 #define krp_sendcheckcontrol KREG_IBPORT_IDX(SendCheckControl)
314 #define krp_sendctrl KREG_IBPORT_IDX(SendCtrl)
315 #define krp_senddmabase KREG_IBPORT_IDX(SendDmaBase)
316 #define krp_senddmabufmask0 KREG_IBPORT_IDX(SendDmaBufMask0)
317 #define krp_senddmabufmask1 (KREG_IBPORT_IDX(SendDmaBufMask0) + 1)
318 #define krp_senddmabufmask2 (KREG_IBPORT_IDX(SendDmaBufMask0) + 2)
319 #define krp_senddmabuf_use0 KREG_IBPORT_IDX(SendDmaBufUsed0)
320 #define krp_senddmabuf_use1 (KREG_IBPORT_IDX(SendDmaBufUsed0) + 1)
321 #define krp_senddmabuf_use2 (KREG_IBPORT_IDX(SendDmaBufUsed0) + 2)
322 #define krp_senddmadesccnt KREG_IBPORT_IDX(SendDmaDescCnt)
323 #define krp_senddmahead KREG_IBPORT_IDX(SendDmaHead)
324 #define krp_senddmaheadaddr KREG_IBPORT_IDX(SendDmaHeadAddr)
325 #define krp_senddmaidlecnt KREG_IBPORT_IDX(SendDmaIdleCnt)
326 #define krp_senddmalengen KREG_IBPORT_IDX(SendDmaLenGen)
327 #define krp_senddmaprioritythld KREG_IBPORT_IDX(SendDmaPriorityThld)
328 #define krp_senddmareloadcnt KREG_IBPORT_IDX(SendDmaReloadCnt)
329 #define krp_senddmastatus KREG_IBPORT_IDX(SendDmaStatus)
330 #define krp_senddmatail KREG_IBPORT_IDX(SendDmaTail)
331 #define krp_sendhdrsymptom KREG_IBPORT_IDX(SendHdrErrSymptom)
332 #define krp_sendslid KREG_IBPORT_IDX(SendIBSLIDAssign)
333 #define krp_sendslidmask KREG_IBPORT_IDX(SendIBSLIDMask)
334 #define krp_ibsdtestiftx KREG_IBPORT_IDX(IB_SDTEST_IF_TX)
335 #define krp_adapt_dis_timer KREG_IBPORT_IDX(ADAPT_DISABLE_TIMER_THRESHOLD)
336 #define krp_tx_deemph_override KREG_IBPORT_IDX(IBSD_TX_DEEMPHASIS_OVERRIDE)
337 #define krp_serdesctrl KREG_IBPORT_IDX(IBSerdesCtrl)
338
339 /*
340  * Per-context kernel registers.  Access only with qib_read_kreg_ctxt()
341  * or qib_write_kreg_ctxt()
342  */
343 #define krc_rcvhdraddr KREG_IDX(RcvHdrAddr0)
344 #define krc_rcvhdrtailaddr KREG_IDX(RcvHdrTailAddr0)
345
346 /*
347  * TID Flow table, per context.  Reduces
348  * number of hdrq updates to one per flow (or on errors).
349  * context 0 and 1 share same memory, but have distinct
350  * addresses.  Since for now, we never use expected sends
351  * on kernel contexts, we don't worry about that (we initialize
352  * those entries for ctxt 0/1 on driver load twice, for example).
353  */
354 #define NUM_TIDFLOWS_CTXT 0x20 /* 0x20 per context; have to hardcode */
355 #define ur_rcvflowtable (KREG_IDX(RcvTIDFlowTable0) - KREG_IDX(RcvHdrTail0))
356
357 /* these are the error bits in the tid flows, and are W1C */
358 #define TIDFLOW_ERRBITS  ( \
359         (SYM_MASK(RcvTIDFlowTable0, GenMismatch) << \
360         SYM_LSB(RcvTIDFlowTable0, GenMismatch)) | \
361         (SYM_MASK(RcvTIDFlowTable0, SeqMismatch) << \
362         SYM_LSB(RcvTIDFlowTable0, SeqMismatch)))
363
364 /* Most (not all) Counters are per-IBport.
365  * Requires LBIntCnt is at offset 0 in the group
366  */
367 #define CREG_IDX(regname) \
368 ((QIB_7322_##regname##_0_OFFS - QIB_7322_LBIntCnt_OFFS) / sizeof(u64))
369
370 #define crp_badformat CREG_IDX(RxVersionErrCnt)
371 #define crp_err_rlen CREG_IDX(RxLenErrCnt)
372 #define crp_erricrc CREG_IDX(RxICRCErrCnt)
373 #define crp_errlink CREG_IDX(RxLinkMalformCnt)
374 #define crp_errlpcrc CREG_IDX(RxLPCRCErrCnt)
375 #define crp_errpkey CREG_IDX(RxPKeyMismatchCnt)
376 #define crp_errvcrc CREG_IDX(RxVCRCErrCnt)
377 #define crp_excessbufferovfl CREG_IDX(ExcessBufferOvflCnt)
378 #define crp_iblinkdown CREG_IDX(IBLinkDownedCnt)
379 #define crp_iblinkerrrecov CREG_IDX(IBLinkErrRecoveryCnt)
380 #define crp_ibstatuschange CREG_IDX(IBStatusChangeCnt)
381 #define crp_ibsymbolerr CREG_IDX(IBSymbolErrCnt)
382 #define crp_invalidrlen CREG_IDX(RxMaxMinLenErrCnt)
383 #define crp_locallinkintegrityerr CREG_IDX(LocalLinkIntegrityErrCnt)
384 #define crp_pktrcv CREG_IDX(RxDataPktCnt)
385 #define crp_pktrcvflowctrl CREG_IDX(RxFlowPktCnt)
386 #define crp_pktsend CREG_IDX(TxDataPktCnt)
387 #define crp_pktsendflow CREG_IDX(TxFlowPktCnt)
388 #define crp_psrcvdatacount CREG_IDX(PSRcvDataCount)
389 #define crp_psrcvpktscount CREG_IDX(PSRcvPktsCount)
390 #define crp_psxmitdatacount CREG_IDX(PSXmitDataCount)
391 #define crp_psxmitpktscount CREG_IDX(PSXmitPktsCount)
392 #define crp_psxmitwaitcount CREG_IDX(PSXmitWaitCount)
393 #define crp_rcvebp CREG_IDX(RxEBPCnt)
394 #define crp_rcvflowctrlviol CREG_IDX(RxFlowCtrlViolCnt)
395 #define crp_rcvovfl CREG_IDX(RxBufOvflCnt)
396 #define crp_rxdlidfltr CREG_IDX(RxDlidFltrCnt)
397 #define crp_rxdroppkt CREG_IDX(RxDroppedPktCnt)
398 #define crp_rxotherlocalphyerr CREG_IDX(RxOtherLocalPhyErrCnt)
399 #define crp_rxqpinvalidctxt CREG_IDX(RxQPInvalidContextCnt)
400 #define crp_rxvlerr CREG_IDX(RxVlErrCnt)
401 #define crp_sendstall CREG_IDX(TxFlowStallCnt)
402 #define crp_txdroppedpkt CREG_IDX(TxDroppedPktCnt)
403 #define crp_txhdrerr CREG_IDX(TxHeadersErrCnt)
404 #define crp_txlenerr CREG_IDX(TxLenErrCnt)
405 #define crp_txminmaxlenerr CREG_IDX(TxMaxMinLenErrCnt)
406 #define crp_txsdmadesc CREG_IDX(TxSDmaDescCnt)
407 #define crp_txunderrun CREG_IDX(TxUnderrunCnt)
408 #define crp_txunsupvl CREG_IDX(TxUnsupVLErrCnt)
409 #define crp_vl15droppedpkt CREG_IDX(RxVL15DroppedPktCnt)
410 #define crp_wordrcv CREG_IDX(RxDwordCnt)
411 #define crp_wordsend CREG_IDX(TxDwordCnt)
412 #define crp_tx_creditstalls CREG_IDX(TxCreditUpToDateTimeOut)
413
414 /* these are the (few) counters that are not port-specific */
415 #define CREG_DEVIDX(regname) ((QIB_7322_##regname##_OFFS - \
416                         QIB_7322_LBIntCnt_OFFS) / sizeof(u64))
417 #define cr_base_egrovfl CREG_DEVIDX(RxP0HdrEgrOvflCnt)
418 #define cr_lbint CREG_DEVIDX(LBIntCnt)
419 #define cr_lbstall CREG_DEVIDX(LBFlowStallCnt)
420 #define cr_pcieretrydiag CREG_DEVIDX(PcieRetryBufDiagQwordCnt)
421 #define cr_rxtidflowdrop CREG_DEVIDX(RxTidFlowDropCnt)
422 #define cr_tidfull CREG_DEVIDX(RxTIDFullErrCnt)
423 #define cr_tidinvalid CREG_DEVIDX(RxTIDValidErrCnt)
424
425 /* no chip register for # of IB ports supported, so define */
426 #define NUM_IB_PORTS 2
427
428 /* 1 VL15 buffer per hardware IB port, no register for this, so define */
429 #define NUM_VL15_BUFS NUM_IB_PORTS
430
431 /*
432  * context 0 and 1 are special, and there is no chip register that
433  * defines this value, so we have to define it here.
434  * These are all allocated to either 0 or 1 for single port
435  * hardware configuration, otherwise each gets half
436  */
437 #define KCTXT0_EGRCNT 2048
438
439 /* values for vl and port fields in PBC, 7322-specific */
440 #define PBC_PORT_SEL_LSB 26
441 #define PBC_PORT_SEL_RMASK 1
442 #define PBC_VL_NUM_LSB 27
443 #define PBC_VL_NUM_RMASK 7
444 #define PBC_7322_VL15_SEND (1ULL << 63) /* pbc; VL15, no credit check */
445 #define PBC_7322_VL15_SEND_CTRL (1ULL << 31) /* control version of same */
446
447 static u8 ib_rate_to_delay[IB_RATE_120_GBPS + 1] = {
448         [IB_RATE_2_5_GBPS] = 16,
449         [IB_RATE_5_GBPS] = 8,
450         [IB_RATE_10_GBPS] = 4,
451         [IB_RATE_20_GBPS] = 2,
452         [IB_RATE_30_GBPS] = 2,
453         [IB_RATE_40_GBPS] = 1
454 };
455
456 #define IBA7322_LINKSPEED_SHIFT SYM_LSB(IBCStatusA_0, LinkSpeedActive)
457 #define IBA7322_LINKWIDTH_SHIFT SYM_LSB(IBCStatusA_0, LinkWidthActive)
458
459 /* link training states, from IBC */
460 #define IB_7322_LT_STATE_DISABLED        0x00
461 #define IB_7322_LT_STATE_LINKUP          0x01
462 #define IB_7322_LT_STATE_POLLACTIVE      0x02
463 #define IB_7322_LT_STATE_POLLQUIET       0x03
464 #define IB_7322_LT_STATE_SLEEPDELAY      0x04
465 #define IB_7322_LT_STATE_SLEEPQUIET      0x05
466 #define IB_7322_LT_STATE_CFGDEBOUNCE     0x08
467 #define IB_7322_LT_STATE_CFGRCVFCFG      0x09
468 #define IB_7322_LT_STATE_CFGWAITRMT      0x0a
469 #define IB_7322_LT_STATE_CFGIDLE         0x0b
470 #define IB_7322_LT_STATE_RECOVERRETRAIN  0x0c
471 #define IB_7322_LT_STATE_TXREVLANES      0x0d
472 #define IB_7322_LT_STATE_RECOVERWAITRMT  0x0e
473 #define IB_7322_LT_STATE_RECOVERIDLE     0x0f
474 #define IB_7322_LT_STATE_CFGENH          0x10
475 #define IB_7322_LT_STATE_CFGTEST         0x11
476 #define IB_7322_LT_STATE_CFGWAITRMTTEST  0x12
477 #define IB_7322_LT_STATE_CFGWAITENH      0x13
478
479 /* link state machine states from IBC */
480 #define IB_7322_L_STATE_DOWN             0x0
481 #define IB_7322_L_STATE_INIT             0x1
482 #define IB_7322_L_STATE_ARM              0x2
483 #define IB_7322_L_STATE_ACTIVE           0x3
484 #define IB_7322_L_STATE_ACT_DEFER        0x4
485
486 static const u8 qib_7322_physportstate[0x20] = {
487         [IB_7322_LT_STATE_DISABLED] = IB_PHYSPORTSTATE_DISABLED,
488         [IB_7322_LT_STATE_LINKUP] = IB_PHYSPORTSTATE_LINKUP,
489         [IB_7322_LT_STATE_POLLACTIVE] = IB_PHYSPORTSTATE_POLL,
490         [IB_7322_LT_STATE_POLLQUIET] = IB_PHYSPORTSTATE_POLL,
491         [IB_7322_LT_STATE_SLEEPDELAY] = IB_PHYSPORTSTATE_SLEEP,
492         [IB_7322_LT_STATE_SLEEPQUIET] = IB_PHYSPORTSTATE_SLEEP,
493         [IB_7322_LT_STATE_CFGDEBOUNCE] = IB_PHYSPORTSTATE_CFG_TRAIN,
494         [IB_7322_LT_STATE_CFGRCVFCFG] =
495                 IB_PHYSPORTSTATE_CFG_TRAIN,
496         [IB_7322_LT_STATE_CFGWAITRMT] =
497                 IB_PHYSPORTSTATE_CFG_TRAIN,
498         [IB_7322_LT_STATE_CFGIDLE] = IB_PHYSPORTSTATE_CFG_IDLE,
499         [IB_7322_LT_STATE_RECOVERRETRAIN] =
500                 IB_PHYSPORTSTATE_LINK_ERR_RECOVER,
501         [IB_7322_LT_STATE_RECOVERWAITRMT] =
502                 IB_PHYSPORTSTATE_LINK_ERR_RECOVER,
503         [IB_7322_LT_STATE_RECOVERIDLE] =
504                 IB_PHYSPORTSTATE_LINK_ERR_RECOVER,
505         [IB_7322_LT_STATE_CFGENH] = IB_PHYSPORTSTATE_CFG_ENH,
506         [IB_7322_LT_STATE_CFGTEST] = IB_PHYSPORTSTATE_CFG_TRAIN,
507         [IB_7322_LT_STATE_CFGWAITRMTTEST] =
508                 IB_PHYSPORTSTATE_CFG_TRAIN,
509         [IB_7322_LT_STATE_CFGWAITENH] =
510                 IB_PHYSPORTSTATE_CFG_WAIT_ENH,
511         [0x14] = IB_PHYSPORTSTATE_CFG_TRAIN,
512         [0x15] = IB_PHYSPORTSTATE_CFG_TRAIN,
513         [0x16] = IB_PHYSPORTSTATE_CFG_TRAIN,
514         [0x17] = IB_PHYSPORTSTATE_CFG_TRAIN
515 };
516
517 struct qib_chip_specific {
518         u64 __iomem *cregbase;
519         u64 *cntrs;
520         spinlock_t rcvmod_lock; /* protect rcvctrl shadow changes */
521         spinlock_t gpio_lock; /* RMW of shadows/regs for ExtCtrl and GPIO */
522         u64 main_int_mask;      /* clear bits which have dedicated handlers */
523         u64 int_enable_mask;  /* for per port interrupts in single port mode */
524         u64 errormask;
525         u64 hwerrmask;
526         u64 gpio_out; /* shadow of kr_gpio_out, for rmw ops */
527         u64 gpio_mask; /* shadow the gpio mask register */
528         u64 extctrl; /* shadow the gpio output enable, etc... */
529         u32 ncntrs;
530         u32 nportcntrs;
531         u32 cntrnamelen;
532         u32 portcntrnamelen;
533         u32 numctxts;
534         u32 rcvegrcnt;
535         u32 updthresh; /* current AvailUpdThld */
536         u32 updthresh_dflt; /* default AvailUpdThld */
537         u32 r1;
538         int irq;
539         u32 num_msix_entries;
540         u32 sdmabufcnt;
541         u32 lastbuf_for_pio;
542         u32 stay_in_freeze;
543         u32 recovery_ports_initted;
544         struct qib_msix_entry *msix_entries;
545         unsigned long *sendchkenable;
546         unsigned long *sendgrhchk;
547         unsigned long *sendibchk;
548         u32 rcvavail_timeout[18];
549         char emsgbuf[128]; /* for device error interrupt msg buffer */
550 };
551
552 /* Table of entries in "human readable" form Tx Emphasis. */
553 struct txdds_ent {
554         u8 amp;
555         u8 pre;
556         u8 main;
557         u8 post;
558 };
559
560 struct vendor_txdds_ent {
561         u8 oui[QSFP_VOUI_LEN];
562         u8 *partnum;
563         struct txdds_ent sdr;
564         struct txdds_ent ddr;
565         struct txdds_ent qdr;
566 };
567
568 static void write_tx_serdes_param(struct qib_pportdata *, struct txdds_ent *);
569
570 #define TXDDS_TABLE_SZ 16 /* number of entries per speed in onchip table */
571 #define TXDDS_EXTRA_SZ 13 /* number of extra tx settings entries */
572 #define TXDDS_MFG_SZ 2    /* number of mfg tx settings entries */
573 #define SERDES_CHANS 4 /* yes, it's obvious, but one less magic number */
574
575 #define H1_FORCE_VAL 8
576 #define H1_FORCE_QME 1 /*  may be overridden via setup_txselect() */
577 #define H1_FORCE_QMH 7 /*  may be overridden via setup_txselect() */
578
579 /* The static and dynamic registers are paired, and the pairs indexed by spd */
580 #define krp_static_adapt_dis(spd) (KREG_IBPORT_IDX(ADAPT_DISABLE_STATIC_SDR) \
581         + ((spd) * 2))
582
583 #define QDR_DFE_DISABLE_DELAY 4000 /* msec after LINKUP */
584 #define QDR_STATIC_ADAPT_DOWN 0xf0f0f0f0ULL /* link down, H1-H4 QDR adapts */
585 #define QDR_STATIC_ADAPT_DOWN_R1 0ULL /* r1 link down, H1-H4 QDR adapts */
586 #define QDR_STATIC_ADAPT_INIT 0xffffffffffULL /* up, disable H0,H1-8, LE */
587 #define QDR_STATIC_ADAPT_INIT_R1 0xf0ffffffffULL /* r1 up, disable H0,H1-8 */
588
589 struct qib_chippport_specific {
590         u64 __iomem *kpregbase;
591         u64 __iomem *cpregbase;
592         u64 *portcntrs;
593         struct qib_pportdata *ppd;
594         wait_queue_head_t autoneg_wait;
595         struct delayed_work autoneg_work;
596         struct delayed_work ipg_work;
597         struct timer_list chase_timer;
598         /*
599          * these 5 fields are used to establish deltas for IB symbol
600          * errors and linkrecovery errors.  They can be reported on
601          * some chips during link negotiation prior to INIT, and with
602          * DDR when faking DDR negotiations with non-IBTA switches.
603          * The chip counters are adjusted at driver unload if there is
604          * a non-zero delta.
605          */
606         u64 ibdeltainprog;
607         u64 ibsymdelta;
608         u64 ibsymsnap;
609         u64 iblnkerrdelta;
610         u64 iblnkerrsnap;
611         u64 iblnkdownsnap;
612         u64 iblnkdowndelta;
613         u64 ibmalfdelta;
614         u64 ibmalfsnap;
615         u64 ibcctrl_a; /* krp_ibcctrl_a shadow */
616         u64 ibcctrl_b; /* krp_ibcctrl_b shadow */
617         unsigned long qdr_dfe_time;
618         unsigned long chase_end;
619         u32 autoneg_tries;
620         u32 recovery_init;
621         u32 qdr_dfe_on;
622         u32 qdr_reforce;
623         /*
624          * Per-bay per-channel rcv QMH H1 values and Tx values for QDR.
625          * entry zero is unused, to simplify indexing
626          */
627         u8 h1_val;
628         u8 no_eep;  /* txselect table index to use if no qsfp info */
629         u8 ipg_tries;
630         u8 ibmalfusesnap;
631         struct qib_qsfp_data qsfp_data;
632         char epmsgbuf[192]; /* for port error interrupt msg buffer */
633 };
634
635 static struct {
636         const char *name;
637         irq_handler_t handler;
638         int lsb;
639         int port; /* 0 if not port-specific, else port # */
640 } irq_table[] = {
641         { "", qib_7322intr, -1, 0 },
642         { " (buf avail)", qib_7322bufavail,
643                 SYM_LSB(IntStatus, SendBufAvail), 0 },
644         { " (sdma 0)", sdma_intr,
645                 SYM_LSB(IntStatus, SDmaInt_0), 1 },
646         { " (sdma 1)", sdma_intr,
647                 SYM_LSB(IntStatus, SDmaInt_1), 2 },
648         { " (sdmaI 0)", sdma_idle_intr,
649                 SYM_LSB(IntStatus, SDmaIdleInt_0), 1 },
650         { " (sdmaI 1)", sdma_idle_intr,
651                 SYM_LSB(IntStatus, SDmaIdleInt_1), 2 },
652         { " (sdmaP 0)", sdma_progress_intr,
653                 SYM_LSB(IntStatus, SDmaProgressInt_0), 1 },
654         { " (sdmaP 1)", sdma_progress_intr,
655                 SYM_LSB(IntStatus, SDmaProgressInt_1), 2 },
656         { " (sdmaC 0)", sdma_cleanup_intr,
657                 SYM_LSB(IntStatus, SDmaCleanupDone_0), 1 },
658         { " (sdmaC 1)", sdma_cleanup_intr,
659                 SYM_LSB(IntStatus, SDmaCleanupDone_1), 2 },
660 };
661
662 /* ibcctrl bits */
663 #define QLOGIC_IB_IBCC_LINKINITCMD_DISABLE 1
664 /* cycle through TS1/TS2 till OK */
665 #define QLOGIC_IB_IBCC_LINKINITCMD_POLL 2
666 /* wait for TS1, then go on */
667 #define QLOGIC_IB_IBCC_LINKINITCMD_SLEEP 3
668 #define QLOGIC_IB_IBCC_LINKINITCMD_SHIFT 16
669
670 #define QLOGIC_IB_IBCC_LINKCMD_DOWN 1           /* move to 0x11 */
671 #define QLOGIC_IB_IBCC_LINKCMD_ARMED 2          /* move to 0x21 */
672 #define QLOGIC_IB_IBCC_LINKCMD_ACTIVE 3 /* move to 0x31 */
673
674 #define BLOB_7322_IBCHG 0x101
675
676 static inline void qib_write_kreg(const struct qib_devdata *dd,
677                                   const u32 regno, u64 value);
678 static inline u32 qib_read_kreg32(const struct qib_devdata *, const u32);
679 static void write_7322_initregs(struct qib_devdata *);
680 static void write_7322_init_portregs(struct qib_pportdata *);
681 static void setup_7322_link_recovery(struct qib_pportdata *, u32);
682 static void check_7322_rxe_status(struct qib_pportdata *);
683 static u32 __iomem *qib_7322_getsendbuf(struct qib_pportdata *, u64, u32 *);
684
685 /**
686  * qib_read_ureg32 - read 32-bit virtualized per-context register
687  * @dd: device
688  * @regno: register number
689  * @ctxt: context number
690  *
691  * Return the contents of a register that is virtualized to be per context.
692  * Returns -1 on errors (not distinguishable from valid contents at
693  * runtime; we may add a separate error variable at some point).
694  */
695 static inline u32 qib_read_ureg32(const struct qib_devdata *dd,
696                                   enum qib_ureg regno, int ctxt)
697 {
698         if (!dd->kregbase || !(dd->flags & QIB_PRESENT))
699                 return 0;
700         return readl(regno + (u64 __iomem *)(
701                 (dd->ureg_align * ctxt) + (dd->userbase ?
702                  (char __iomem *)dd->userbase :
703                  (char __iomem *)dd->kregbase + dd->uregbase)));
704 }
705
706 /**
707  * qib_read_ureg - read virtualized per-context register
708  * @dd: device
709  * @regno: register number
710  * @ctxt: context number
711  *
712  * Return the contents of a register that is virtualized to be per context.
713  * Returns -1 on errors (not distinguishable from valid contents at
714  * runtime; we may add a separate error variable at some point).
715  */
716 static inline u64 qib_read_ureg(const struct qib_devdata *dd,
717                                 enum qib_ureg regno, int ctxt)
718 {
719
720         if (!dd->kregbase || !(dd->flags & QIB_PRESENT))
721                 return 0;
722         return readq(regno + (u64 __iomem *)(
723                 (dd->ureg_align * ctxt) + (dd->userbase ?
724                  (char __iomem *)dd->userbase :
725                  (char __iomem *)dd->kregbase + dd->uregbase)));
726 }
727
728 /**
729  * qib_write_ureg - write virtualized per-context register
730  * @dd: device
731  * @regno: register number
732  * @value: value
733  * @ctxt: context
734  *
735  * Write the contents of a register that is virtualized to be per context.
736  */
737 static inline void qib_write_ureg(const struct qib_devdata *dd,
738                                   enum qib_ureg regno, u64 value, int ctxt)
739 {
740         u64 __iomem *ubase;
741         if (dd->userbase)
742                 ubase = (u64 __iomem *)
743                         ((char __iomem *) dd->userbase +
744                          dd->ureg_align * ctxt);
745         else
746                 ubase = (u64 __iomem *)
747                         (dd->uregbase +
748                          (char __iomem *) dd->kregbase +
749                          dd->ureg_align * ctxt);
750
751         if (dd->kregbase && (dd->flags & QIB_PRESENT))
752                 writeq(value, &ubase[regno]);
753 }
754
755 static inline u32 qib_read_kreg32(const struct qib_devdata *dd,
756                                   const u32 regno)
757 {
758         if (!dd->kregbase || !(dd->flags & QIB_PRESENT))
759                 return -1;
760         return readl((u32 __iomem *) &dd->kregbase[regno]);
761 }
762
763 static inline u64 qib_read_kreg64(const struct qib_devdata *dd,
764                                   const u32 regno)
765 {
766         if (!dd->kregbase || !(dd->flags & QIB_PRESENT))
767                 return -1;
768         return readq(&dd->kregbase[regno]);
769 }
770
771 static inline void qib_write_kreg(const struct qib_devdata *dd,
772                                   const u32 regno, u64 value)
773 {
774         if (dd->kregbase && (dd->flags & QIB_PRESENT))
775                 writeq(value, &dd->kregbase[regno]);
776 }
777
778 /*
779  * not many sanity checks for the port-specific kernel register routines,
780  * since they are only used when it's known to be safe.
781 */
782 static inline u64 qib_read_kreg_port(const struct qib_pportdata *ppd,
783                                      const u16 regno)
784 {
785         if (!ppd->cpspec->kpregbase || !(ppd->dd->flags & QIB_PRESENT))
786                 return 0ULL;
787         return readq(&ppd->cpspec->kpregbase[regno]);
788 }
789
790 static inline void qib_write_kreg_port(const struct qib_pportdata *ppd,
791                                        const u16 regno, u64 value)
792 {
793         if (ppd->cpspec && ppd->dd && ppd->cpspec->kpregbase &&
794             (ppd->dd->flags & QIB_PRESENT))
795                 writeq(value, &ppd->cpspec->kpregbase[regno]);
796 }
797
798 /**
799  * qib_write_kreg_ctxt - write a device's per-ctxt 64-bit kernel register
800  * @dd: the qlogic_ib device
801  * @regno: the register number to write
802  * @ctxt: the context containing the register
803  * @value: the value to write
804  */
805 static inline void qib_write_kreg_ctxt(const struct qib_devdata *dd,
806                                        const u16 regno, unsigned ctxt,
807                                        u64 value)
808 {
809         qib_write_kreg(dd, regno + ctxt, value);
810 }
811
812 static inline u64 read_7322_creg(const struct qib_devdata *dd, u16 regno)
813 {
814         if (!dd->cspec->cregbase || !(dd->flags & QIB_PRESENT))
815                 return 0;
816         return readq(&dd->cspec->cregbase[regno]);
817
818
819 }
820
821 static inline u32 read_7322_creg32(const struct qib_devdata *dd, u16 regno)
822 {
823         if (!dd->cspec->cregbase || !(dd->flags & QIB_PRESENT))
824                 return 0;
825         return readl(&dd->cspec->cregbase[regno]);
826
827
828 }
829
830 static inline void write_7322_creg_port(const struct qib_pportdata *ppd,
831                                         u16 regno, u64 value)
832 {
833         if (ppd->cpspec && ppd->cpspec->cpregbase &&
834             (ppd->dd->flags & QIB_PRESENT))
835                 writeq(value, &ppd->cpspec->cpregbase[regno]);
836 }
837
838 static inline u64 read_7322_creg_port(const struct qib_pportdata *ppd,
839                                       u16 regno)
840 {
841         if (!ppd->cpspec || !ppd->cpspec->cpregbase ||
842             !(ppd->dd->flags & QIB_PRESENT))
843                 return 0;
844         return readq(&ppd->cpspec->cpregbase[regno]);
845 }
846
847 static inline u32 read_7322_creg32_port(const struct qib_pportdata *ppd,
848                                         u16 regno)
849 {
850         if (!ppd->cpspec || !ppd->cpspec->cpregbase ||
851             !(ppd->dd->flags & QIB_PRESENT))
852                 return 0;
853         return readl(&ppd->cpspec->cpregbase[regno]);
854 }
855
856 /* bits in Control register */
857 #define QLOGIC_IB_C_RESET SYM_MASK(Control, SyncReset)
858 #define QLOGIC_IB_C_SDMAFETCHPRIOEN SYM_MASK(Control, SDmaDescFetchPriorityEn)
859
860 /* bits in general interrupt regs */
861 #define QIB_I_RCVURG_LSB SYM_LSB(IntMask, RcvUrg0IntMask)
862 #define QIB_I_RCVURG_RMASK MASK_ACROSS(0, 17)
863 #define QIB_I_RCVURG_MASK (QIB_I_RCVURG_RMASK << QIB_I_RCVURG_LSB)
864 #define QIB_I_RCVAVAIL_LSB SYM_LSB(IntMask, RcvAvail0IntMask)
865 #define QIB_I_RCVAVAIL_RMASK MASK_ACROSS(0, 17)
866 #define QIB_I_RCVAVAIL_MASK (QIB_I_RCVAVAIL_RMASK << QIB_I_RCVAVAIL_LSB)
867 #define QIB_I_C_ERROR INT_MASK(Err)
868
869 #define QIB_I_SPIOSENT (INT_MASK_P(SendDone, 0) | INT_MASK_P(SendDone, 1))
870 #define QIB_I_SPIOBUFAVAIL INT_MASK(SendBufAvail)
871 #define QIB_I_GPIO INT_MASK(AssertGPIO)
872 #define QIB_I_P_SDMAINT(pidx) \
873         (INT_MASK_P(SDma, pidx) | INT_MASK_P(SDmaIdle, pidx) | \
874          INT_MASK_P(SDmaProgress, pidx) | \
875          INT_MASK_PM(SDmaCleanupDone, pidx))
876
877 /* Interrupt bits that are "per port" */
878 #define QIB_I_P_BITSEXTANT(pidx) \
879         (INT_MASK_P(Err, pidx) | INT_MASK_P(SendDone, pidx) | \
880         INT_MASK_P(SDma, pidx) | INT_MASK_P(SDmaIdle, pidx) | \
881         INT_MASK_P(SDmaProgress, pidx) | \
882         INT_MASK_PM(SDmaCleanupDone, pidx))
883
884 /* Interrupt bits that are common to a device */
885 /* currently unused: QIB_I_SPIOSENT */
886 #define QIB_I_C_BITSEXTANT \
887         (QIB_I_RCVURG_MASK | QIB_I_RCVAVAIL_MASK | \
888         QIB_I_SPIOSENT | \
889         QIB_I_C_ERROR | QIB_I_SPIOBUFAVAIL | QIB_I_GPIO)
890
891 #define QIB_I_BITSEXTANT (QIB_I_C_BITSEXTANT | \
892         QIB_I_P_BITSEXTANT(0) | QIB_I_P_BITSEXTANT(1))
893
894 /*
895  * Error bits that are "per port".
896  */
897 #define QIB_E_P_IBSTATUSCHANGED ERR_MASK_N(IBStatusChanged)
898 #define QIB_E_P_SHDR ERR_MASK_N(SHeadersErr)
899 #define QIB_E_P_VL15_BUF_MISUSE ERR_MASK_N(VL15BufMisuseErr)
900 #define QIB_E_P_SND_BUF_MISUSE ERR_MASK_N(SendBufMisuseErr)
901 #define QIB_E_P_SUNSUPVL ERR_MASK_N(SendUnsupportedVLErr)
902 #define QIB_E_P_SUNEXP_PKTNUM ERR_MASK_N(SendUnexpectedPktNumErr)
903 #define QIB_E_P_SDROP_DATA ERR_MASK_N(SendDroppedDataPktErr)
904 #define QIB_E_P_SDROP_SMP ERR_MASK_N(SendDroppedSmpPktErr)
905 #define QIB_E_P_SPKTLEN ERR_MASK_N(SendPktLenErr)
906 #define QIB_E_P_SUNDERRUN ERR_MASK_N(SendUnderRunErr)
907 #define QIB_E_P_SMAXPKTLEN ERR_MASK_N(SendMaxPktLenErr)
908 #define QIB_E_P_SMINPKTLEN ERR_MASK_N(SendMinPktLenErr)
909 #define QIB_E_P_RIBLOSTLINK ERR_MASK_N(RcvIBLostLinkErr)
910 #define QIB_E_P_RHDR ERR_MASK_N(RcvHdrErr)
911 #define QIB_E_P_RHDRLEN ERR_MASK_N(RcvHdrLenErr)
912 #define QIB_E_P_RBADTID ERR_MASK_N(RcvBadTidErr)
913 #define QIB_E_P_RBADVERSION ERR_MASK_N(RcvBadVersionErr)
914 #define QIB_E_P_RIBFLOW ERR_MASK_N(RcvIBFlowErr)
915 #define QIB_E_P_REBP ERR_MASK_N(RcvEBPErr)
916 #define QIB_E_P_RUNSUPVL ERR_MASK_N(RcvUnsupportedVLErr)
917 #define QIB_E_P_RUNEXPCHAR ERR_MASK_N(RcvUnexpectedCharErr)
918 #define QIB_E_P_RSHORTPKTLEN ERR_MASK_N(RcvShortPktLenErr)
919 #define QIB_E_P_RLONGPKTLEN ERR_MASK_N(RcvLongPktLenErr)
920 #define QIB_E_P_RMAXPKTLEN ERR_MASK_N(RcvMaxPktLenErr)
921 #define QIB_E_P_RMINPKTLEN ERR_MASK_N(RcvMinPktLenErr)
922 #define QIB_E_P_RICRC ERR_MASK_N(RcvICRCErr)
923 #define QIB_E_P_RVCRC ERR_MASK_N(RcvVCRCErr)
924 #define QIB_E_P_RFORMATERR ERR_MASK_N(RcvFormatErr)
925
926 #define QIB_E_P_SDMA1STDESC ERR_MASK_N(SDma1stDescErr)
927 #define QIB_E_P_SDMABASE ERR_MASK_N(SDmaBaseErr)
928 #define QIB_E_P_SDMADESCADDRMISALIGN ERR_MASK_N(SDmaDescAddrMisalignErr)
929 #define QIB_E_P_SDMADWEN ERR_MASK_N(SDmaDwEnErr)
930 #define QIB_E_P_SDMAGENMISMATCH ERR_MASK_N(SDmaGenMismatchErr)
931 #define QIB_E_P_SDMAHALT ERR_MASK_N(SDmaHaltErr)
932 #define QIB_E_P_SDMAMISSINGDW ERR_MASK_N(SDmaMissingDwErr)
933 #define QIB_E_P_SDMAOUTOFBOUND ERR_MASK_N(SDmaOutOfBoundErr)
934 #define QIB_E_P_SDMARPYTAG ERR_MASK_N(SDmaRpyTagErr)
935 #define QIB_E_P_SDMATAILOUTOFBOUND ERR_MASK_N(SDmaTailOutOfBoundErr)
936 #define QIB_E_P_SDMAUNEXPDATA ERR_MASK_N(SDmaUnexpDataErr)
937
938 /* Error bits that are common to a device */
939 #define QIB_E_RESET ERR_MASK(ResetNegated)
940 #define QIB_E_HARDWARE ERR_MASK(HardwareErr)
941 #define QIB_E_INVALIDADDR ERR_MASK(InvalidAddrErr)
942
943
944 /*
945  * Per chip (rather than per-port) errors.  Most either do
946  * nothing but trigger a print (because they self-recover, or
947  * always occur in tandem with other errors that handle the
948  * issue), or because they indicate errors with no recovery,
949  * but we want to know that they happened.
950  */
951 #define QIB_E_SBUF_VL15_MISUSE ERR_MASK(SBufVL15MisUseErr)
952 #define QIB_E_BADEEP ERR_MASK(InvalidEEPCmd)
953 #define QIB_E_VLMISMATCH ERR_MASK(SendVLMismatchErr)
954 #define QIB_E_ARMLAUNCH ERR_MASK(SendArmLaunchErr)
955 #define QIB_E_SPCLTRIG ERR_MASK(SendSpecialTriggerErr)
956 #define QIB_E_RRCVHDRFULL ERR_MASK(RcvHdrFullErr)
957 #define QIB_E_RRCVEGRFULL ERR_MASK(RcvEgrFullErr)
958 #define QIB_E_RCVCTXTSHARE ERR_MASK(RcvContextShareErr)
959
960 /* SDMA chip errors (not per port)
961  * QIB_E_SDMA_BUF_DUP needs no special handling, because we will also get
962  * the SDMAHALT error immediately, so we just print the dup error via the
963  * E_AUTO mechanism.  This is true of most of the per-port fatal errors
964  * as well, but since this is port-independent, by definition, it's
965  * handled a bit differently.  SDMA_VL15 and SDMA_WRONG_PORT are per
966  * packet send errors, and so are handled in the same manner as other
967  * per-packet errors.
968  */
969 #define QIB_E_SDMA_VL15 ERR_MASK(SDmaVL15Err)
970 #define QIB_E_SDMA_WRONG_PORT ERR_MASK(SDmaWrongPortErr)
971 #define QIB_E_SDMA_BUF_DUP ERR_MASK(SDmaBufMaskDuplicateErr)
972
973 /*
974  * Below functionally equivalent to legacy QLOGIC_IB_E_PKTERRS
975  * it is used to print "common" packet errors.
976  */
977 #define QIB_E_P_PKTERRS (QIB_E_P_SPKTLEN |\
978         QIB_E_P_SDROP_DATA | QIB_E_P_RVCRC |\
979         QIB_E_P_RICRC | QIB_E_P_RSHORTPKTLEN |\
980         QIB_E_P_VL15_BUF_MISUSE | QIB_E_P_SHDR | \
981         QIB_E_P_REBP)
982
983 /* Error Bits that Packet-related (Receive, per-port) */
984 #define QIB_E_P_RPKTERRS (\
985         QIB_E_P_RHDRLEN | QIB_E_P_RBADTID | \
986         QIB_E_P_RBADVERSION | QIB_E_P_RHDR | \
987         QIB_E_P_RLONGPKTLEN | QIB_E_P_RSHORTPKTLEN |\
988         QIB_E_P_RMAXPKTLEN | QIB_E_P_RMINPKTLEN | \
989         QIB_E_P_RFORMATERR | QIB_E_P_RUNSUPVL | \
990         QIB_E_P_RUNEXPCHAR | QIB_E_P_RIBFLOW | QIB_E_P_REBP)
991
992 /*
993  * Error bits that are Send-related (per port)
994  * (ARMLAUNCH excluded from E_SPKTERRS because it gets special handling).
995  * All of these potentially need to have a buffer disarmed
996  */
997 #define QIB_E_P_SPKTERRS (\
998         QIB_E_P_SUNEXP_PKTNUM |\
999         QIB_E_P_SDROP_DATA | QIB_E_P_SDROP_SMP |\
1000         QIB_E_P_SMAXPKTLEN |\
1001         QIB_E_P_VL15_BUF_MISUSE | QIB_E_P_SHDR | \
1002         QIB_E_P_SMINPKTLEN | QIB_E_P_SPKTLEN | \
1003         QIB_E_P_SND_BUF_MISUSE | QIB_E_P_SUNSUPVL)
1004
1005 #define QIB_E_SPKTERRS ( \
1006                 QIB_E_SBUF_VL15_MISUSE | QIB_E_VLMISMATCH | \
1007                 ERR_MASK_N(SendUnsupportedVLErr) |                      \
1008                 QIB_E_SPCLTRIG | QIB_E_SDMA_VL15 | QIB_E_SDMA_WRONG_PORT)
1009
1010 #define QIB_E_P_SDMAERRS ( \
1011         QIB_E_P_SDMAHALT | \
1012         QIB_E_P_SDMADESCADDRMISALIGN | \
1013         QIB_E_P_SDMAUNEXPDATA | \
1014         QIB_E_P_SDMAMISSINGDW | \
1015         QIB_E_P_SDMADWEN | \
1016         QIB_E_P_SDMARPYTAG | \
1017         QIB_E_P_SDMA1STDESC | \
1018         QIB_E_P_SDMABASE | \
1019         QIB_E_P_SDMATAILOUTOFBOUND | \
1020         QIB_E_P_SDMAOUTOFBOUND | \
1021         QIB_E_P_SDMAGENMISMATCH)
1022
1023 /*
1024  * This sets some bits more than once, but makes it more obvious which
1025  * bits are not handled under other categories, and the repeat definition
1026  * is not a problem.
1027  */
1028 #define QIB_E_P_BITSEXTANT ( \
1029         QIB_E_P_SPKTERRS | QIB_E_P_PKTERRS | QIB_E_P_RPKTERRS | \
1030         QIB_E_P_RIBLOSTLINK | QIB_E_P_IBSTATUSCHANGED | \
1031         QIB_E_P_SND_BUF_MISUSE | QIB_E_P_SUNDERRUN | \
1032         QIB_E_P_SHDR | QIB_E_P_VL15_BUF_MISUSE | QIB_E_P_SDMAERRS \
1033         )
1034
1035 /*
1036  * These are errors that can occur when the link
1037  * changes state while a packet is being sent or received.  This doesn't
1038  * cover things like EBP or VCRC that can be the result of a sending
1039  * having the link change state, so we receive a "known bad" packet.
1040  * All of these are "per port", so renamed:
1041  */
1042 #define QIB_E_P_LINK_PKTERRS (\
1043         QIB_E_P_SDROP_DATA | QIB_E_P_SDROP_SMP |\
1044         QIB_E_P_SMINPKTLEN | QIB_E_P_SPKTLEN |\
1045         QIB_E_P_RSHORTPKTLEN | QIB_E_P_RMINPKTLEN |\
1046         QIB_E_P_RUNEXPCHAR)
1047
1048 /*
1049  * This sets some bits more than once, but makes it more obvious which
1050  * bits are not handled under other categories (such as QIB_E_SPKTERRS),
1051  * and the repeat definition is not a problem.
1052  */
1053 #define QIB_E_C_BITSEXTANT (\
1054         QIB_E_HARDWARE | QIB_E_INVALIDADDR | QIB_E_BADEEP |\
1055         QIB_E_ARMLAUNCH | QIB_E_VLMISMATCH | QIB_E_RRCVHDRFULL |\
1056         QIB_E_RRCVEGRFULL | QIB_E_RESET | QIB_E_SBUF_VL15_MISUSE)
1057
1058 /* Likewise Neuter E_SPKT_ERRS_IGNORE */
1059 #define E_SPKT_ERRS_IGNORE 0
1060
1061 #define QIB_EXTS_MEMBIST_DISABLED \
1062         SYM_MASK(EXTStatus, MemBISTDisabled)
1063 #define QIB_EXTS_MEMBIST_ENDTEST \
1064         SYM_MASK(EXTStatus, MemBISTEndTest)
1065
1066 #define QIB_E_SPIOARMLAUNCH \
1067         ERR_MASK(SendArmLaunchErr)
1068
1069 #define IBA7322_IBCC_LINKINITCMD_MASK SYM_RMASK(IBCCtrlA_0, LinkInitCmd)
1070 #define IBA7322_IBCC_LINKCMD_SHIFT SYM_LSB(IBCCtrlA_0, LinkCmd)
1071
1072 /*
1073  * IBTA_1_2 is set when multiple speeds are enabled (normal),
1074  * and also if forced QDR (only QDR enabled).  It's enabled for the
1075  * forced QDR case so that scrambling will be enabled by the TS3
1076  * exchange, when supported by both sides of the link.
1077  */
1078 #define IBA7322_IBC_IBTA_1_2_MASK SYM_MASK(IBCCtrlB_0, IB_ENHANCED_MODE)
1079 #define IBA7322_IBC_MAX_SPEED_MASK SYM_MASK(IBCCtrlB_0, SD_SPEED)
1080 #define IBA7322_IBC_SPEED_QDR SYM_MASK(IBCCtrlB_0, SD_SPEED_QDR)
1081 #define IBA7322_IBC_SPEED_DDR SYM_MASK(IBCCtrlB_0, SD_SPEED_DDR)
1082 #define IBA7322_IBC_SPEED_SDR SYM_MASK(IBCCtrlB_0, SD_SPEED_SDR)
1083 #define IBA7322_IBC_SPEED_MASK (SYM_MASK(IBCCtrlB_0, SD_SPEED_SDR) | \
1084         SYM_MASK(IBCCtrlB_0, SD_SPEED_DDR) | SYM_MASK(IBCCtrlB_0, SD_SPEED_QDR))
1085 #define IBA7322_IBC_SPEED_LSB SYM_LSB(IBCCtrlB_0, SD_SPEED_SDR)
1086
1087 #define IBA7322_LEDBLINK_OFF_SHIFT SYM_LSB(RcvPktLEDCnt_0, OFFperiod)
1088 #define IBA7322_LEDBLINK_ON_SHIFT SYM_LSB(RcvPktLEDCnt_0, ONperiod)
1089
1090 #define IBA7322_IBC_WIDTH_AUTONEG SYM_MASK(IBCCtrlB_0, IB_NUM_CHANNELS)
1091 #define IBA7322_IBC_WIDTH_4X_ONLY (1<<SYM_LSB(IBCCtrlB_0, IB_NUM_CHANNELS))
1092 #define IBA7322_IBC_WIDTH_1X_ONLY (0<<SYM_LSB(IBCCtrlB_0, IB_NUM_CHANNELS))
1093
1094 #define IBA7322_IBC_RXPOL_MASK SYM_MASK(IBCCtrlB_0, IB_POLARITY_REV_SUPP)
1095 #define IBA7322_IBC_RXPOL_LSB SYM_LSB(IBCCtrlB_0, IB_POLARITY_REV_SUPP)
1096 #define IBA7322_IBC_HRTBT_MASK (SYM_MASK(IBCCtrlB_0, HRTBT_AUTO) | \
1097         SYM_MASK(IBCCtrlB_0, HRTBT_ENB))
1098 #define IBA7322_IBC_HRTBT_RMASK (IBA7322_IBC_HRTBT_MASK >> \
1099         SYM_LSB(IBCCtrlB_0, HRTBT_ENB))
1100 #define IBA7322_IBC_HRTBT_LSB SYM_LSB(IBCCtrlB_0, HRTBT_ENB)
1101
1102 #define IBA7322_REDIRECT_VEC_PER_REG 12
1103
1104 #define IBA7322_SENDCHK_PKEY SYM_MASK(SendCheckControl_0, PKey_En)
1105 #define IBA7322_SENDCHK_BTHQP SYM_MASK(SendCheckControl_0, BTHQP_En)
1106 #define IBA7322_SENDCHK_SLID SYM_MASK(SendCheckControl_0, SLID_En)
1107 #define IBA7322_SENDCHK_RAW_IPV6 SYM_MASK(SendCheckControl_0, RawIPV6_En)
1108 #define IBA7322_SENDCHK_MINSZ SYM_MASK(SendCheckControl_0, PacketTooSmall_En)
1109
1110 #define AUTONEG_TRIES 3 /* sequential retries to negotiate DDR */
1111
1112 #define HWE_AUTO(fldname) { .mask = SYM_MASK(HwErrMask, fldname##Mask), \
1113         .msg = #fldname , .sz = sizeof(#fldname) }
1114 #define HWE_AUTO_P(fldname, port) { .mask = SYM_MASK(HwErrMask, \
1115         fldname##Mask##_##port), .msg = #fldname , .sz = sizeof(#fldname) }
1116 static const struct qib_hwerror_msgs qib_7322_hwerror_msgs[] = {
1117         HWE_AUTO_P(IBSerdesPClkNotDetect, 1),
1118         HWE_AUTO_P(IBSerdesPClkNotDetect, 0),
1119         HWE_AUTO(PCIESerdesPClkNotDetect),
1120         HWE_AUTO(PowerOnBISTFailed),
1121         HWE_AUTO(TempsenseTholdReached),
1122         HWE_AUTO(MemoryErr),
1123         HWE_AUTO(PCIeBusParityErr),
1124         HWE_AUTO(PcieCplTimeout),
1125         HWE_AUTO(PciePoisonedTLP),
1126         HWE_AUTO_P(SDmaMemReadErr, 1),
1127         HWE_AUTO_P(SDmaMemReadErr, 0),
1128         HWE_AUTO_P(IBCBusFromSPCParityErr, 1),
1129         HWE_AUTO_P(IBCBusToSPCParityErr, 1),
1130         HWE_AUTO_P(IBCBusFromSPCParityErr, 0),
1131         HWE_AUTO(statusValidNoEop),
1132         HWE_AUTO(LATriggered),
1133         { .mask = 0, .sz = 0 }
1134 };
1135
1136 #define E_AUTO(fldname) { .mask = SYM_MASK(ErrMask, fldname##Mask), \
1137         .msg = #fldname, .sz = sizeof(#fldname) }
1138 #define E_P_AUTO(fldname) { .mask = SYM_MASK(ErrMask_0, fldname##Mask), \
1139         .msg = #fldname, .sz = sizeof(#fldname) }
1140 static const struct qib_hwerror_msgs qib_7322error_msgs[] = {
1141         E_AUTO(RcvEgrFullErr),
1142         E_AUTO(RcvHdrFullErr),
1143         E_AUTO(ResetNegated),
1144         E_AUTO(HardwareErr),
1145         E_AUTO(InvalidAddrErr),
1146         E_AUTO(SDmaVL15Err),
1147         E_AUTO(SBufVL15MisUseErr),
1148         E_AUTO(InvalidEEPCmd),
1149         E_AUTO(RcvContextShareErr),
1150         E_AUTO(SendVLMismatchErr),
1151         E_AUTO(SendArmLaunchErr),
1152         E_AUTO(SendSpecialTriggerErr),
1153         E_AUTO(SDmaWrongPortErr),
1154         E_AUTO(SDmaBufMaskDuplicateErr),
1155         { .mask = 0, .sz = 0 }
1156 };
1157
1158 static const struct  qib_hwerror_msgs qib_7322p_error_msgs[] = {
1159         E_P_AUTO(IBStatusChanged),
1160         E_P_AUTO(SHeadersErr),
1161         E_P_AUTO(VL15BufMisuseErr),
1162         /*
1163          * SDmaHaltErr is not really an error, make it clearer;
1164          */
1165         {.mask = SYM_MASK(ErrMask_0, SDmaHaltErrMask), .msg = "SDmaHalted",
1166                 .sz = 11},
1167         E_P_AUTO(SDmaDescAddrMisalignErr),
1168         E_P_AUTO(SDmaUnexpDataErr),
1169         E_P_AUTO(SDmaMissingDwErr),
1170         E_P_AUTO(SDmaDwEnErr),
1171         E_P_AUTO(SDmaRpyTagErr),
1172         E_P_AUTO(SDma1stDescErr),
1173         E_P_AUTO(SDmaBaseErr),
1174         E_P_AUTO(SDmaTailOutOfBoundErr),
1175         E_P_AUTO(SDmaOutOfBoundErr),
1176         E_P_AUTO(SDmaGenMismatchErr),
1177         E_P_AUTO(SendBufMisuseErr),
1178         E_P_AUTO(SendUnsupportedVLErr),
1179         E_P_AUTO(SendUnexpectedPktNumErr),
1180         E_P_AUTO(SendDroppedDataPktErr),
1181         E_P_AUTO(SendDroppedSmpPktErr),
1182         E_P_AUTO(SendPktLenErr),
1183         E_P_AUTO(SendUnderRunErr),
1184         E_P_AUTO(SendMaxPktLenErr),
1185         E_P_AUTO(SendMinPktLenErr),
1186         E_P_AUTO(RcvIBLostLinkErr),
1187         E_P_AUTO(RcvHdrErr),
1188         E_P_AUTO(RcvHdrLenErr),
1189         E_P_AUTO(RcvBadTidErr),
1190         E_P_AUTO(RcvBadVersionErr),
1191         E_P_AUTO(RcvIBFlowErr),
1192         E_P_AUTO(RcvEBPErr),
1193         E_P_AUTO(RcvUnsupportedVLErr),
1194         E_P_AUTO(RcvUnexpectedCharErr),
1195         E_P_AUTO(RcvShortPktLenErr),
1196         E_P_AUTO(RcvLongPktLenErr),
1197         E_P_AUTO(RcvMaxPktLenErr),
1198         E_P_AUTO(RcvMinPktLenErr),
1199         E_P_AUTO(RcvICRCErr),
1200         E_P_AUTO(RcvVCRCErr),
1201         E_P_AUTO(RcvFormatErr),
1202         { .mask = 0, .sz = 0 }
1203 };
1204
1205 /*
1206  * Below generates "auto-message" for interrupts not specific to any port or
1207  * context
1208  */
1209 #define INTR_AUTO(fldname) { .mask = SYM_MASK(IntMask, fldname##Mask), \
1210         .msg = #fldname, .sz = sizeof(#fldname) }
1211 /* Below generates "auto-message" for interrupts specific to a port */
1212 #define INTR_AUTO_P(fldname) { .mask = MASK_ACROSS(\
1213         SYM_LSB(IntMask, fldname##Mask##_0), \
1214         SYM_LSB(IntMask, fldname##Mask##_1)), \
1215         .msg = #fldname "_P", .sz = sizeof(#fldname "_P") }
1216 /* For some reason, the SerDesTrimDone bits are reversed */
1217 #define INTR_AUTO_PI(fldname) { .mask = MASK_ACROSS(\
1218         SYM_LSB(IntMask, fldname##Mask##_1), \
1219         SYM_LSB(IntMask, fldname##Mask##_0)), \
1220         .msg = #fldname "_P", .sz = sizeof(#fldname "_P") }
1221 /*
1222  * Below generates "auto-message" for interrupts specific to a context,
1223  * with ctxt-number appended
1224  */
1225 #define INTR_AUTO_C(fldname) { .mask = MASK_ACROSS(\
1226         SYM_LSB(IntMask, fldname##0IntMask), \
1227         SYM_LSB(IntMask, fldname##17IntMask)), \
1228         .msg = #fldname "_C", .sz = sizeof(#fldname "_C") }
1229
1230 static const struct  qib_hwerror_msgs qib_7322_intr_msgs[] = {
1231         INTR_AUTO_P(SDmaInt),
1232         INTR_AUTO_P(SDmaProgressInt),
1233         INTR_AUTO_P(SDmaIdleInt),
1234         INTR_AUTO_P(SDmaCleanupDone),
1235         INTR_AUTO_C(RcvUrg),
1236         INTR_AUTO_P(ErrInt),
1237         INTR_AUTO(ErrInt),      /* non-port-specific errs */
1238         INTR_AUTO(AssertGPIOInt),
1239         INTR_AUTO_P(SendDoneInt),
1240         INTR_AUTO(SendBufAvailInt),
1241         INTR_AUTO_C(RcvAvail),
1242         { .mask = 0, .sz = 0 }
1243 };
1244
1245 #define TXSYMPTOM_AUTO_P(fldname) \
1246         { .mask = SYM_MASK(SendHdrErrSymptom_0, fldname), \
1247         .msg = #fldname, .sz = sizeof(#fldname) }
1248 static const struct  qib_hwerror_msgs hdrchk_msgs[] = {
1249         TXSYMPTOM_AUTO_P(NonKeyPacket),
1250         TXSYMPTOM_AUTO_P(GRHFail),
1251         TXSYMPTOM_AUTO_P(PkeyFail),
1252         TXSYMPTOM_AUTO_P(QPFail),
1253         TXSYMPTOM_AUTO_P(SLIDFail),
1254         TXSYMPTOM_AUTO_P(RawIPV6),
1255         TXSYMPTOM_AUTO_P(PacketTooSmall),
1256         { .mask = 0, .sz = 0 }
1257 };
1258
1259 #define IBA7322_HDRHEAD_PKTINT_SHIFT 32 /* interrupt cnt in upper 32 bits */
1260
1261 /*
1262  * Called when we might have an error that is specific to a particular
1263  * PIO buffer, and may need to cancel that buffer, so it can be re-used,
1264  * because we don't need to force the update of pioavail
1265  */
1266 static void qib_disarm_7322_senderrbufs(struct qib_pportdata *ppd)
1267 {
1268         struct qib_devdata *dd = ppd->dd;
1269         u32 i;
1270         int any;
1271         u32 piobcnt = dd->piobcnt2k + dd->piobcnt4k + NUM_VL15_BUFS;
1272         u32 regcnt = (piobcnt + BITS_PER_LONG - 1) / BITS_PER_LONG;
1273         unsigned long sbuf[4];
1274
1275         /*
1276          * It's possible that sendbuffererror could have bits set; might
1277          * have already done this as a result of hardware error handling.
1278          */
1279         any = 0;
1280         for (i = 0; i < regcnt; ++i) {
1281                 sbuf[i] = qib_read_kreg64(dd, kr_sendbuffererror + i);
1282                 if (sbuf[i]) {
1283                         any = 1;
1284                         qib_write_kreg(dd, kr_sendbuffererror + i, sbuf[i]);
1285                 }
1286         }
1287
1288         if (any)
1289                 qib_disarm_piobufs_set(dd, sbuf, piobcnt);
1290 }
1291
1292 /* No txe_recover yet, if ever */
1293
1294 /* No decode__errors yet */
1295 static void err_decode(char *msg, size_t len, u64 errs,
1296                        const struct qib_hwerror_msgs *msp)
1297 {
1298         u64 these, lmask;
1299         int took, multi, n = 0;
1300
1301         while (errs && msp && msp->mask) {
1302                 multi = (msp->mask & (msp->mask - 1));
1303                 while (errs & msp->mask) {
1304                         these = (errs & msp->mask);
1305                         lmask = (these & (these - 1)) ^ these;
1306                         if (len) {
1307                                 if (n++) {
1308                                         /* separate the strings */
1309                                         *msg++ = ',';
1310                                         len--;
1311                                 }
1312                                 BUG_ON(!msp->sz);
1313                                 /* msp->sz counts the nul */
1314                                 took = min_t(size_t, msp->sz - (size_t)1, len);
1315                                 memcpy(msg,  msp->msg, took);
1316                                 len -= took;
1317                                 msg += took;
1318                                 if (len)
1319                                         *msg = '\0';
1320                         }
1321                         errs &= ~lmask;
1322                         if (len && multi) {
1323                                 /* More than one bit this mask */
1324                                 int idx = -1;
1325
1326                                 while (lmask & msp->mask) {
1327                                         ++idx;
1328                                         lmask >>= 1;
1329                                 }
1330                                 took = scnprintf(msg, len, "_%d", idx);
1331                                 len -= took;
1332                                 msg += took;
1333                         }
1334                 }
1335                 ++msp;
1336         }
1337         /* If some bits are left, show in hex. */
1338         if (len && errs)
1339                 snprintf(msg, len, "%sMORE:%llX", n ? "," : "",
1340                         (unsigned long long) errs);
1341 }
1342
1343 /* only called if r1 set */
1344 static void flush_fifo(struct qib_pportdata *ppd)
1345 {
1346         struct qib_devdata *dd = ppd->dd;
1347         u32 __iomem *piobuf;
1348         u32 bufn;
1349         u32 *hdr;
1350         u64 pbc;
1351         const unsigned hdrwords = 7;
1352         static struct qib_ib_header ibhdr = {
1353                 .lrh[0] = cpu_to_be16(0xF000 | QIB_LRH_BTH),
1354                 .lrh[1] = IB_LID_PERMISSIVE,
1355                 .lrh[2] = cpu_to_be16(hdrwords + SIZE_OF_CRC),
1356                 .lrh[3] = IB_LID_PERMISSIVE,
1357                 .u.oth.bth[0] = cpu_to_be32(
1358                         (IB_OPCODE_UD_SEND_ONLY << 24) | QIB_DEFAULT_P_KEY),
1359                 .u.oth.bth[1] = cpu_to_be32(0),
1360                 .u.oth.bth[2] = cpu_to_be32(0),
1361                 .u.oth.u.ud.deth[0] = cpu_to_be32(0),
1362                 .u.oth.u.ud.deth[1] = cpu_to_be32(0),
1363         };
1364
1365         /*
1366          * Send a dummy VL15 packet to flush the launch FIFO.
1367          * This will not actually be sent since the TxeBypassIbc bit is set.
1368          */
1369         pbc = PBC_7322_VL15_SEND |
1370                 (((u64)ppd->hw_pidx) << (PBC_PORT_SEL_LSB + 32)) |
1371                 (hdrwords + SIZE_OF_CRC);
1372         piobuf = qib_7322_getsendbuf(ppd, pbc, &bufn);
1373         if (!piobuf)
1374                 return;
1375         writeq(pbc, piobuf);
1376         hdr = (u32 *) &ibhdr;
1377         if (dd->flags & QIB_PIO_FLUSH_WC) {
1378                 qib_flush_wc();
1379                 qib_pio_copy(piobuf + 2, hdr, hdrwords - 1);
1380                 qib_flush_wc();
1381                 __raw_writel(hdr[hdrwords - 1], piobuf + hdrwords + 1);
1382                 qib_flush_wc();
1383         } else
1384                 qib_pio_copy(piobuf + 2, hdr, hdrwords);
1385         qib_sendbuf_done(dd, bufn);
1386 }
1387
1388 /*
1389  * This is called with interrupts disabled and sdma_lock held.
1390  */
1391 static void qib_7322_sdma_sendctrl(struct qib_pportdata *ppd, unsigned op)
1392 {
1393         struct qib_devdata *dd = ppd->dd;
1394         u64 set_sendctrl = 0;
1395         u64 clr_sendctrl = 0;
1396
1397         if (op & QIB_SDMA_SENDCTRL_OP_ENABLE)
1398                 set_sendctrl |= SYM_MASK(SendCtrl_0, SDmaEnable);
1399         else
1400                 clr_sendctrl |= SYM_MASK(SendCtrl_0, SDmaEnable);
1401
1402         if (op & QIB_SDMA_SENDCTRL_OP_INTENABLE)
1403                 set_sendctrl |= SYM_MASK(SendCtrl_0, SDmaIntEnable);
1404         else
1405                 clr_sendctrl |= SYM_MASK(SendCtrl_0, SDmaIntEnable);
1406
1407         if (op & QIB_SDMA_SENDCTRL_OP_HALT)
1408                 set_sendctrl |= SYM_MASK(SendCtrl_0, SDmaHalt);
1409         else
1410                 clr_sendctrl |= SYM_MASK(SendCtrl_0, SDmaHalt);
1411
1412         if (op & QIB_SDMA_SENDCTRL_OP_DRAIN)
1413                 set_sendctrl |= SYM_MASK(SendCtrl_0, TxeBypassIbc) |
1414                                 SYM_MASK(SendCtrl_0, TxeAbortIbc) |
1415                                 SYM_MASK(SendCtrl_0, TxeDrainRmFifo);
1416         else
1417                 clr_sendctrl |= SYM_MASK(SendCtrl_0, TxeBypassIbc) |
1418                                 SYM_MASK(SendCtrl_0, TxeAbortIbc) |
1419                                 SYM_MASK(SendCtrl_0, TxeDrainRmFifo);
1420
1421         spin_lock(&dd->sendctrl_lock);
1422
1423         /* If we are draining everything, block sends first */
1424         if (op & QIB_SDMA_SENDCTRL_OP_DRAIN) {
1425                 ppd->p_sendctrl &= ~SYM_MASK(SendCtrl_0, SendEnable);
1426                 qib_write_kreg_port(ppd, krp_sendctrl, ppd->p_sendctrl);
1427                 qib_write_kreg(dd, kr_scratch, 0);
1428         }
1429
1430         ppd->p_sendctrl |= set_sendctrl;
1431         ppd->p_sendctrl &= ~clr_sendctrl;
1432
1433         if (op & QIB_SDMA_SENDCTRL_OP_CLEANUP)
1434                 qib_write_kreg_port(ppd, krp_sendctrl,
1435                                     ppd->p_sendctrl |
1436                                     SYM_MASK(SendCtrl_0, SDmaCleanup));
1437         else
1438                 qib_write_kreg_port(ppd, krp_sendctrl, ppd->p_sendctrl);
1439         qib_write_kreg(dd, kr_scratch, 0);
1440
1441         if (op & QIB_SDMA_SENDCTRL_OP_DRAIN) {
1442                 ppd->p_sendctrl |= SYM_MASK(SendCtrl_0, SendEnable);
1443                 qib_write_kreg_port(ppd, krp_sendctrl, ppd->p_sendctrl);
1444                 qib_write_kreg(dd, kr_scratch, 0);
1445         }
1446
1447         spin_unlock(&dd->sendctrl_lock);
1448
1449         if ((op & QIB_SDMA_SENDCTRL_OP_DRAIN) && ppd->dd->cspec->r1)
1450                 flush_fifo(ppd);
1451 }
1452
1453 static void qib_7322_sdma_hw_clean_up(struct qib_pportdata *ppd)
1454 {
1455         __qib_sdma_process_event(ppd, qib_sdma_event_e50_hw_cleaned);
1456 }
1457
1458 static void qib_sdma_7322_setlengen(struct qib_pportdata *ppd)
1459 {
1460         /*
1461          * Set SendDmaLenGen and clear and set
1462          * the MSB of the generation count to enable generation checking
1463          * and load the internal generation counter.
1464          */
1465         qib_write_kreg_port(ppd, krp_senddmalengen, ppd->sdma_descq_cnt);
1466         qib_write_kreg_port(ppd, krp_senddmalengen,
1467                             ppd->sdma_descq_cnt |
1468                             (1ULL << QIB_7322_SendDmaLenGen_0_Generation_MSB));
1469 }
1470
1471 /*
1472  * Must be called with sdma_lock held, or before init finished.
1473  */
1474 static void qib_sdma_update_7322_tail(struct qib_pportdata *ppd, u16 tail)
1475 {
1476         /* Commit writes to memory and advance the tail on the chip */
1477         wmb();
1478         ppd->sdma_descq_tail = tail;
1479         qib_write_kreg_port(ppd, krp_senddmatail, tail);
1480 }
1481
1482 /*
1483  * This is called with interrupts disabled and sdma_lock held.
1484  */
1485 static void qib_7322_sdma_hw_start_up(struct qib_pportdata *ppd)
1486 {
1487         /*
1488          * Drain all FIFOs.
1489          * The hardware doesn't require this but we do it so that verbs
1490          * and user applications don't wait for link active to send stale
1491          * data.
1492          */
1493         sendctrl_7322_mod(ppd, QIB_SENDCTRL_FLUSH);
1494
1495         qib_sdma_7322_setlengen(ppd);
1496         qib_sdma_update_7322_tail(ppd, 0); /* Set SendDmaTail */
1497         ppd->sdma_head_dma[0] = 0;
1498         qib_7322_sdma_sendctrl(ppd,
1499                 ppd->sdma_state.current_op | QIB_SDMA_SENDCTRL_OP_CLEANUP);
1500 }
1501
1502 #define DISABLES_SDMA ( \
1503         QIB_E_P_SDMAHALT | \
1504         QIB_E_P_SDMADESCADDRMISALIGN | \
1505         QIB_E_P_SDMAMISSINGDW | \
1506         QIB_E_P_SDMADWEN | \
1507         QIB_E_P_SDMARPYTAG | \
1508         QIB_E_P_SDMA1STDESC | \
1509         QIB_E_P_SDMABASE | \
1510         QIB_E_P_SDMATAILOUTOFBOUND | \
1511         QIB_E_P_SDMAOUTOFBOUND | \
1512         QIB_E_P_SDMAGENMISMATCH)
1513
1514 static void sdma_7322_p_errors(struct qib_pportdata *ppd, u64 errs)
1515 {
1516         unsigned long flags;
1517         struct qib_devdata *dd = ppd->dd;
1518
1519         errs &= QIB_E_P_SDMAERRS;
1520
1521         if (errs & QIB_E_P_SDMAUNEXPDATA)
1522                 qib_dev_err(dd, "IB%u:%u SDmaUnexpData\n", dd->unit,
1523                             ppd->port);
1524
1525         spin_lock_irqsave(&ppd->sdma_lock, flags);
1526
1527         switch (ppd->sdma_state.current_state) {
1528         case qib_sdma_state_s00_hw_down:
1529                 break;
1530
1531         case qib_sdma_state_s10_hw_start_up_wait:
1532                 if (errs & QIB_E_P_SDMAHALT)
1533                         __qib_sdma_process_event(ppd,
1534                                 qib_sdma_event_e20_hw_started);
1535                 break;
1536
1537         case qib_sdma_state_s20_idle:
1538                 break;
1539
1540         case qib_sdma_state_s30_sw_clean_up_wait:
1541                 break;
1542
1543         case qib_sdma_state_s40_hw_clean_up_wait:
1544                 if (errs & QIB_E_P_SDMAHALT)
1545                         __qib_sdma_process_event(ppd,
1546                                 qib_sdma_event_e50_hw_cleaned);
1547                 break;
1548
1549         case qib_sdma_state_s50_hw_halt_wait:
1550                 if (errs & QIB_E_P_SDMAHALT)
1551                         __qib_sdma_process_event(ppd,
1552                                 qib_sdma_event_e60_hw_halted);
1553                 break;
1554
1555         case qib_sdma_state_s99_running:
1556                 __qib_sdma_process_event(ppd, qib_sdma_event_e7322_err_halted);
1557                 __qib_sdma_process_event(ppd, qib_sdma_event_e60_hw_halted);
1558                 break;
1559         }
1560
1561         spin_unlock_irqrestore(&ppd->sdma_lock, flags);
1562 }
1563
1564 /*
1565  * handle per-device errors (not per-port errors)
1566  */
1567 static noinline void handle_7322_errors(struct qib_devdata *dd)
1568 {
1569         char *msg;
1570         u64 iserr = 0;
1571         u64 errs;
1572         u64 mask;
1573         int log_idx;
1574
1575         qib_stats.sps_errints++;
1576         errs = qib_read_kreg64(dd, kr_errstatus);
1577         if (!errs) {
1578                 qib_devinfo(dd->pcidev, "device error interrupt, "
1579                          "but no error bits set!\n");
1580                 goto done;
1581         }
1582
1583         /* don't report errors that are masked */
1584         errs &= dd->cspec->errormask;
1585         msg = dd->cspec->emsgbuf;
1586
1587         /* do these first, they are most important */
1588         if (errs & QIB_E_HARDWARE) {
1589                 *msg = '\0';
1590                 qib_7322_handle_hwerrors(dd, msg, sizeof dd->cspec->emsgbuf);
1591         } else
1592                 for (log_idx = 0; log_idx < QIB_EEP_LOG_CNT; ++log_idx)
1593                         if (errs & dd->eep_st_masks[log_idx].errs_to_log)
1594                                 qib_inc_eeprom_err(dd, log_idx, 1);
1595
1596         if (errs & QIB_E_SPKTERRS) {
1597                 qib_disarm_7322_senderrbufs(dd->pport);
1598                 qib_stats.sps_txerrs++;
1599         } else if (errs & QIB_E_INVALIDADDR)
1600                 qib_stats.sps_txerrs++;
1601         else if (errs & QIB_E_ARMLAUNCH) {
1602                 qib_stats.sps_txerrs++;
1603                 qib_disarm_7322_senderrbufs(dd->pport);
1604         }
1605         qib_write_kreg(dd, kr_errclear, errs);
1606
1607         /*
1608          * The ones we mask off are handled specially below
1609          * or above.  Also mask SDMADISABLED by default as it
1610          * is too chatty.
1611          */
1612         mask = QIB_E_HARDWARE;
1613         *msg = '\0';
1614
1615         err_decode(msg, sizeof dd->cspec->emsgbuf, errs & ~mask,
1616                    qib_7322error_msgs);
1617
1618         /*
1619          * Getting reset is a tragedy for all ports. Mark the device
1620          * _and_ the ports as "offline" in way meaningful to each.
1621          */
1622         if (errs & QIB_E_RESET) {
1623                 int pidx;
1624
1625                 qib_dev_err(dd, "Got reset, requires re-init "
1626                             "(unload and reload driver)\n");
1627                 dd->flags &= ~QIB_INITTED;  /* needs re-init */
1628                 /* mark as having had error */
1629                 *dd->devstatusp |= QIB_STATUS_HWERROR;
1630                 for (pidx = 0; pidx < dd->num_pports; ++pidx)
1631                         if (dd->pport[pidx].link_speed_supported)
1632                                 *dd->pport[pidx].statusp &= ~QIB_STATUS_IB_CONF;
1633         }
1634
1635         if (*msg && iserr)
1636                 qib_dev_err(dd, "%s error\n", msg);
1637
1638         /*
1639          * If there were hdrq or egrfull errors, wake up any processes
1640          * waiting in poll.  We used to try to check which contexts had
1641          * the overflow, but given the cost of that and the chip reads
1642          * to support it, it's better to just wake everybody up if we
1643          * get an overflow; waiters can poll again if it's not them.
1644          */
1645         if (errs & (ERR_MASK(RcvEgrFullErr) | ERR_MASK(RcvHdrFullErr))) {
1646                 qib_handle_urcv(dd, ~0U);
1647                 if (errs & ERR_MASK(RcvEgrFullErr))
1648                         qib_stats.sps_buffull++;
1649                 else
1650                         qib_stats.sps_hdrfull++;
1651         }
1652
1653 done:
1654         return;
1655 }
1656
1657 static void qib_error_tasklet(unsigned long data)
1658 {
1659         struct qib_devdata *dd = (struct qib_devdata *)data;
1660
1661         handle_7322_errors(dd);
1662         qib_write_kreg(dd, kr_errmask, dd->cspec->errormask);
1663 }
1664
1665 static void reenable_chase(unsigned long opaque)
1666 {
1667         struct qib_pportdata *ppd = (struct qib_pportdata *)opaque;
1668
1669         ppd->cpspec->chase_timer.expires = 0;
1670         qib_set_ib_7322_lstate(ppd, QLOGIC_IB_IBCC_LINKCMD_DOWN,
1671                 QLOGIC_IB_IBCC_LINKINITCMD_POLL);
1672 }
1673
1674 static void disable_chase(struct qib_pportdata *ppd, unsigned long tnow,
1675                 u8 ibclt)
1676 {
1677         ppd->cpspec->chase_end = 0;
1678
1679         if (!qib_chase)
1680                 return;
1681
1682         qib_set_ib_7322_lstate(ppd, QLOGIC_IB_IBCC_LINKCMD_DOWN,
1683                 QLOGIC_IB_IBCC_LINKINITCMD_DISABLE);
1684         ppd->cpspec->chase_timer.expires = jiffies + QIB_CHASE_DIS_TIME;
1685         add_timer(&ppd->cpspec->chase_timer);
1686 }
1687
1688 static void handle_serdes_issues(struct qib_pportdata *ppd, u64 ibcst)
1689 {
1690         u8 ibclt;
1691         unsigned long tnow;
1692
1693         ibclt = (u8)SYM_FIELD(ibcst, IBCStatusA_0, LinkTrainingState);
1694
1695         /*
1696          * Detect and handle the state chase issue, where we can
1697          * get stuck if we are unlucky on timing on both sides of
1698          * the link.   If we are, we disable, set a timer, and
1699          * then re-enable.
1700          */
1701         switch (ibclt) {
1702         case IB_7322_LT_STATE_CFGRCVFCFG:
1703         case IB_7322_LT_STATE_CFGWAITRMT:
1704         case IB_7322_LT_STATE_TXREVLANES:
1705         case IB_7322_LT_STATE_CFGENH:
1706                 tnow = jiffies;
1707                 if (ppd->cpspec->chase_end &&
1708                      time_after(tnow, ppd->cpspec->chase_end))
1709                         disable_chase(ppd, tnow, ibclt);
1710                 else if (!ppd->cpspec->chase_end)
1711                         ppd->cpspec->chase_end = tnow + QIB_CHASE_TIME;
1712                 break;
1713         default:
1714                 ppd->cpspec->chase_end = 0;
1715                 break;
1716         }
1717
1718         if (((ibclt >= IB_7322_LT_STATE_CFGTEST &&
1719               ibclt <= IB_7322_LT_STATE_CFGWAITENH) ||
1720              ibclt == IB_7322_LT_STATE_LINKUP) &&
1721             (ibcst & SYM_MASK(IBCStatusA_0, LinkSpeedQDR))) {
1722                 force_h1(ppd);
1723                 ppd->cpspec->qdr_reforce = 1;
1724                 if (!ppd->dd->cspec->r1)
1725                         serdes_7322_los_enable(ppd, 0);
1726         } else if (ppd->cpspec->qdr_reforce &&
1727                 (ibcst & SYM_MASK(IBCStatusA_0, LinkSpeedQDR)) &&
1728                  (ibclt == IB_7322_LT_STATE_CFGENH ||
1729                 ibclt == IB_7322_LT_STATE_CFGIDLE ||
1730                 ibclt == IB_7322_LT_STATE_LINKUP))
1731                 force_h1(ppd);
1732
1733         if ((IS_QMH(ppd->dd) || IS_QME(ppd->dd)) &&
1734             ppd->link_speed_enabled == QIB_IB_QDR &&
1735             (ibclt == IB_7322_LT_STATE_CFGTEST ||
1736              ibclt == IB_7322_LT_STATE_CFGENH ||
1737              (ibclt >= IB_7322_LT_STATE_POLLACTIVE &&
1738               ibclt <= IB_7322_LT_STATE_SLEEPQUIET)))
1739                 adj_tx_serdes(ppd);
1740
1741         if (ibclt != IB_7322_LT_STATE_LINKUP) {
1742                 u8 ltstate = qib_7322_phys_portstate(ibcst);
1743                 u8 pibclt = (u8)SYM_FIELD(ppd->lastibcstat, IBCStatusA_0,
1744                                           LinkTrainingState);
1745                 if (!ppd->dd->cspec->r1 &&
1746                     pibclt == IB_7322_LT_STATE_LINKUP &&
1747                     ltstate != IB_PHYSPORTSTATE_LINK_ERR_RECOVER &&
1748                     ltstate != IB_PHYSPORTSTATE_RECOVERY_RETRAIN &&
1749                     ltstate != IB_PHYSPORTSTATE_RECOVERY_WAITRMT &&
1750                     ltstate != IB_PHYSPORTSTATE_RECOVERY_IDLE)
1751                         /* If the link went down (but no into recovery,
1752                          * turn LOS back on */
1753                         serdes_7322_los_enable(ppd, 1);
1754                 if (!ppd->cpspec->qdr_dfe_on &&
1755                     ibclt <= IB_7322_LT_STATE_SLEEPQUIET) {
1756                         ppd->cpspec->qdr_dfe_on = 1;
1757                         ppd->cpspec->qdr_dfe_time = 0;
1758                         /* On link down, reenable QDR adaptation */
1759                         qib_write_kreg_port(ppd, krp_static_adapt_dis(2),
1760                                             ppd->dd->cspec->r1 ?
1761                                             QDR_STATIC_ADAPT_DOWN_R1 :
1762                                             QDR_STATIC_ADAPT_DOWN);
1763                         printk(KERN_INFO QIB_DRV_NAME
1764                                 " IB%u:%u re-enabled QDR adaptation "
1765                                 "ibclt %x\n", ppd->dd->unit, ppd->port, ibclt);
1766                 }
1767         }
1768 }
1769
1770 static int qib_7322_set_ib_cfg(struct qib_pportdata *, int, u32);
1771
1772 /*
1773  * This is per-pport error handling.
1774  * will likely get it's own MSIx interrupt (one for each port,
1775  * although just a single handler).
1776  */
1777 static noinline void handle_7322_p_errors(struct qib_pportdata *ppd)
1778 {
1779         char *msg;
1780         u64 ignore_this_time = 0, iserr = 0, errs, fmask;
1781         struct qib_devdata *dd = ppd->dd;
1782
1783         /* do this as soon as possible */
1784         fmask = qib_read_kreg64(dd, kr_act_fmask);
1785         if (!fmask)
1786                 check_7322_rxe_status(ppd);
1787
1788         errs = qib_read_kreg_port(ppd, krp_errstatus);
1789         if (!errs)
1790                 qib_devinfo(dd->pcidev,
1791                          "Port%d error interrupt, but no error bits set!\n",
1792                          ppd->port);
1793         if (!fmask)
1794                 errs &= ~QIB_E_P_IBSTATUSCHANGED;
1795         if (!errs)
1796                 goto done;
1797
1798         msg = ppd->cpspec->epmsgbuf;
1799         *msg = '\0';
1800
1801         if (errs & ~QIB_E_P_BITSEXTANT) {
1802                 err_decode(msg, sizeof ppd->cpspec->epmsgbuf,
1803                            errs & ~QIB_E_P_BITSEXTANT, qib_7322p_error_msgs);
1804                 if (!*msg)
1805                         snprintf(msg, sizeof ppd->cpspec->epmsgbuf,
1806                                  "no others");
1807                 qib_dev_porterr(dd, ppd->port, "error interrupt with unknown"
1808                                 " errors 0x%016Lx set (and %s)\n",
1809                                 (errs & ~QIB_E_P_BITSEXTANT), msg);
1810                 *msg = '\0';
1811         }
1812
1813         if (errs & QIB_E_P_SHDR) {
1814                 u64 symptom;
1815
1816                 /* determine cause, then write to clear */
1817                 symptom = qib_read_kreg_port(ppd, krp_sendhdrsymptom);
1818                 qib_write_kreg_port(ppd, krp_sendhdrsymptom, 0);
1819                 err_decode(msg, sizeof ppd->cpspec->epmsgbuf, symptom,
1820                            hdrchk_msgs);
1821                 *msg = '\0';
1822                 /* senderrbuf cleared in SPKTERRS below */
1823         }
1824
1825         if (errs & QIB_E_P_SPKTERRS) {
1826                 if ((errs & QIB_E_P_LINK_PKTERRS) &&
1827                     !(ppd->lflags & QIBL_LINKACTIVE)) {
1828                         /*
1829                          * This can happen when trying to bring the link
1830                          * up, but the IB link changes state at the "wrong"
1831                          * time. The IB logic then complains that the packet
1832                          * isn't valid.  We don't want to confuse people, so
1833                          * we just don't print them, except at debug
1834                          */
1835                         err_decode(msg, sizeof ppd->cpspec->epmsgbuf,
1836                                    (errs & QIB_E_P_LINK_PKTERRS),
1837                                    qib_7322p_error_msgs);
1838                         *msg = '\0';
1839                         ignore_this_time = errs & QIB_E_P_LINK_PKTERRS;
1840                 }
1841                 qib_disarm_7322_senderrbufs(ppd);
1842         } else if ((errs & QIB_E_P_LINK_PKTERRS) &&
1843                    !(ppd->lflags & QIBL_LINKACTIVE)) {
1844                 /*
1845                  * This can happen when SMA is trying to bring the link
1846                  * up, but the IB link changes state at the "wrong" time.
1847                  * The IB logic then complains that the packet isn't
1848                  * valid.  We don't want to confuse people, so we just
1849                  * don't print them, except at debug
1850                  */
1851                 err_decode(msg, sizeof ppd->cpspec->epmsgbuf, errs,
1852                            qib_7322p_error_msgs);
1853                 ignore_this_time = errs & QIB_E_P_LINK_PKTERRS;
1854                 *msg = '\0';
1855         }
1856
1857         qib_write_kreg_port(ppd, krp_errclear, errs);
1858
1859         errs &= ~ignore_this_time;
1860         if (!errs)
1861                 goto done;
1862
1863         if (errs & QIB_E_P_RPKTERRS)
1864                 qib_stats.sps_rcverrs++;
1865         if (errs & QIB_E_P_SPKTERRS)
1866                 qib_stats.sps_txerrs++;
1867
1868         iserr = errs & ~(QIB_E_P_RPKTERRS | QIB_E_P_PKTERRS);
1869
1870         if (errs & QIB_E_P_SDMAERRS)
1871                 sdma_7322_p_errors(ppd, errs);
1872
1873         if (errs & QIB_E_P_IBSTATUSCHANGED) {
1874                 u64 ibcs;
1875                 u8 ltstate;
1876
1877                 ibcs = qib_read_kreg_port(ppd, krp_ibcstatus_a);
1878                 ltstate = qib_7322_phys_portstate(ibcs);
1879
1880                 if (!(ppd->lflags & QIBL_IB_AUTONEG_INPROG))
1881                         handle_serdes_issues(ppd, ibcs);
1882                 if (!(ppd->cpspec->ibcctrl_a &
1883                       SYM_MASK(IBCCtrlA_0, IBStatIntReductionEn))) {
1884                         /*
1885                          * We got our interrupt, so init code should be
1886                          * happy and not try alternatives. Now squelch
1887                          * other "chatter" from link-negotiation (pre Init)
1888                          */
1889                         ppd->cpspec->ibcctrl_a |=
1890                                 SYM_MASK(IBCCtrlA_0, IBStatIntReductionEn);
1891                         qib_write_kreg_port(ppd, krp_ibcctrl_a,
1892                                             ppd->cpspec->ibcctrl_a);
1893                 }
1894
1895                 /* Update our picture of width and speed from chip */
1896                 ppd->link_width_active =
1897                         (ibcs & SYM_MASK(IBCStatusA_0, LinkWidthActive)) ?
1898                             IB_WIDTH_4X : IB_WIDTH_1X;
1899                 ppd->link_speed_active = (ibcs & SYM_MASK(IBCStatusA_0,
1900                         LinkSpeedQDR)) ? QIB_IB_QDR : (ibcs &
1901                           SYM_MASK(IBCStatusA_0, LinkSpeedActive)) ?
1902                                    QIB_IB_DDR : QIB_IB_SDR;
1903
1904                 if ((ppd->lflags & QIBL_IB_LINK_DISABLED) && ltstate !=
1905                     IB_PHYSPORTSTATE_DISABLED)
1906                         qib_set_ib_7322_lstate(ppd, 0,
1907                                QLOGIC_IB_IBCC_LINKINITCMD_DISABLE);
1908                 else
1909                         /*
1910                          * Since going into a recovery state causes the link
1911                          * state to go down and since recovery is transitory,
1912                          * it is better if we "miss" ever seeing the link
1913                          * training state go into recovery (i.e., ignore this
1914                          * transition for link state special handling purposes)
1915                          * without updating lastibcstat.
1916                          */
1917                         if (ltstate != IB_PHYSPORTSTATE_LINK_ERR_RECOVER &&
1918                             ltstate != IB_PHYSPORTSTATE_RECOVERY_RETRAIN &&
1919                             ltstate != IB_PHYSPORTSTATE_RECOVERY_WAITRMT &&
1920                             ltstate != IB_PHYSPORTSTATE_RECOVERY_IDLE)
1921                                 qib_handle_e_ibstatuschanged(ppd, ibcs);
1922         }
1923         if (*msg && iserr)
1924                 qib_dev_porterr(dd, ppd->port, "%s error\n", msg);
1925
1926         if (ppd->state_wanted & ppd->lflags)
1927                 wake_up_interruptible(&ppd->state_wait);
1928 done:
1929         return;
1930 }
1931
1932 /* enable/disable chip from delivering interrupts */
1933 static void qib_7322_set_intr_state(struct qib_devdata *dd, u32 enable)
1934 {
1935         if (enable) {
1936                 if (dd->flags & QIB_BADINTR)
1937                         return;
1938                 qib_write_kreg(dd, kr_intmask, dd->cspec->int_enable_mask);
1939                 /* cause any pending enabled interrupts to be re-delivered */
1940                 qib_write_kreg(dd, kr_intclear, 0ULL);
1941                 if (dd->cspec->num_msix_entries) {
1942                         /* and same for MSIx */
1943                         u64 val = qib_read_kreg64(dd, kr_intgranted);
1944                         if (val)
1945                                 qib_write_kreg(dd, kr_intgranted, val);
1946                 }
1947         } else
1948                 qib_write_kreg(dd, kr_intmask, 0ULL);
1949 }
1950
1951 /*
1952  * Try to cleanup as much as possible for anything that might have gone
1953  * wrong while in freeze mode, such as pio buffers being written by user
1954  * processes (causing armlaunch), send errors due to going into freeze mode,
1955  * etc., and try to avoid causing extra interrupts while doing so.
1956  * Forcibly update the in-memory pioavail register copies after cleanup
1957  * because the chip won't do it while in freeze mode (the register values
1958  * themselves are kept correct).
1959  * Make sure that we don't lose any important interrupts by using the chip
1960  * feature that says that writing 0 to a bit in *clear that is set in
1961  * *status will cause an interrupt to be generated again (if allowed by
1962  * the *mask value).
1963  * This is in chip-specific code because of all of the register accesses,
1964  * even though the details are similar on most chips.
1965  */
1966 static void qib_7322_clear_freeze(struct qib_devdata *dd)
1967 {
1968         int pidx;
1969
1970         /* disable error interrupts, to avoid confusion */
1971         qib_write_kreg(dd, kr_errmask, 0ULL);
1972
1973         for (pidx = 0; pidx < dd->num_pports; ++pidx)
1974                 if (dd->pport[pidx].link_speed_supported)
1975                         qib_write_kreg_port(dd->pport + pidx, krp_errmask,
1976                                             0ULL);
1977
1978         /* also disable interrupts; errormask is sometimes overwriten */
1979         qib_7322_set_intr_state(dd, 0);
1980
1981         /* clear the freeze, and be sure chip saw it */
1982         qib_write_kreg(dd, kr_control, dd->control);
1983         qib_read_kreg32(dd, kr_scratch);
1984
1985         /*
1986          * Force new interrupt if any hwerr, error or interrupt bits are
1987          * still set, and clear "safe" send packet errors related to freeze
1988          * and cancelling sends.  Re-enable error interrupts before possible
1989          * force of re-interrupt on pending interrupts.
1990          */
1991         qib_write_kreg(dd, kr_hwerrclear, 0ULL);
1992         qib_write_kreg(dd, kr_errclear, E_SPKT_ERRS_IGNORE);
1993         qib_write_kreg(dd, kr_errmask, dd->cspec->errormask);
1994         /* We need to purge per-port errs and reset mask, too */
1995         for (pidx = 0; pidx < dd->num_pports; ++pidx) {
1996                 if (!dd->pport[pidx].link_speed_supported)
1997                         continue;
1998                 qib_write_kreg_port(dd->pport + pidx, krp_errclear, ~0Ull);
1999                 qib_write_kreg_port(dd->pport + pidx, krp_errmask, ~0Ull);
2000         }
2001         qib_7322_set_intr_state(dd, 1);
2002 }
2003
2004 /* no error handling to speak of */
2005 /**
2006  * qib_7322_handle_hwerrors - display hardware errors.
2007  * @dd: the qlogic_ib device
2008  * @msg: the output buffer
2009  * @msgl: the size of the output buffer
2010  *
2011  * Use same msg buffer as regular errors to avoid excessive stack
2012  * use.  Most hardware errors are catastrophic, but for right now,
2013  * we'll print them and continue.  We reuse the same message buffer as
2014  * qib_handle_errors() to avoid excessive stack usage.
2015  */
2016 static void qib_7322_handle_hwerrors(struct qib_devdata *dd, char *msg,
2017                                      size_t msgl)
2018 {
2019         u64 hwerrs;
2020         u32 ctrl;
2021         int isfatal = 0;
2022
2023         hwerrs = qib_read_kreg64(dd, kr_hwerrstatus);
2024         if (!hwerrs)
2025                 goto bail;
2026         if (hwerrs == ~0ULL) {
2027                 qib_dev_err(dd, "Read of hardware error status failed "
2028                             "(all bits set); ignoring\n");
2029                 goto bail;
2030         }
2031         qib_stats.sps_hwerrs++;
2032
2033         /* Always clear the error status register, except BIST fail */
2034         qib_write_kreg(dd, kr_hwerrclear, hwerrs &
2035                        ~HWE_MASK(PowerOnBISTFailed));
2036
2037         hwerrs &= dd->cspec->hwerrmask;
2038
2039         /* no EEPROM logging, yet */
2040
2041         if (hwerrs)
2042                 qib_devinfo(dd->pcidev, "Hardware error: hwerr=0x%llx "
2043                             "(cleared)\n", (unsigned long long) hwerrs);
2044
2045         ctrl = qib_read_kreg32(dd, kr_control);
2046         if ((ctrl & SYM_MASK(Control, FreezeMode)) && !dd->diag_client) {
2047                 /*
2048                  * No recovery yet...
2049                  */
2050                 if ((hwerrs & ~HWE_MASK(LATriggered)) ||
2051                     dd->cspec->stay_in_freeze) {
2052                         /*
2053                          * If any set that we aren't ignoring only make the
2054                          * complaint once, in case it's stuck or recurring,
2055                          * and we get here multiple times
2056                          * Force link down, so switch knows, and
2057                          * LEDs are turned off.
2058                          */
2059                         if (dd->flags & QIB_INITTED)
2060                                 isfatal = 1;
2061                 } else
2062                         qib_7322_clear_freeze(dd);
2063         }
2064
2065         if (hwerrs & HWE_MASK(PowerOnBISTFailed)) {
2066                 isfatal = 1;
2067                 strlcpy(msg, "[Memory BIST test failed, "
2068                         "InfiniPath hardware unusable]", msgl);
2069                 /* ignore from now on, so disable until driver reloaded */
2070                 dd->cspec->hwerrmask &= ~HWE_MASK(PowerOnBISTFailed);
2071                 qib_write_kreg(dd, kr_hwerrmask, dd->cspec->hwerrmask);
2072         }
2073
2074         err_decode(msg, msgl, hwerrs, qib_7322_hwerror_msgs);
2075
2076         /* Ignore esoteric PLL failures et al. */
2077
2078         qib_dev_err(dd, "%s hardware error\n", msg);
2079
2080         if (isfatal && !dd->diag_client) {
2081                 qib_dev_err(dd, "Fatal Hardware Error, no longer"
2082                             " usable, SN %.16s\n", dd->serial);
2083                 /*
2084                  * for /sys status file and user programs to print; if no
2085                  * trailing brace is copied, we'll know it was truncated.
2086                  */
2087                 if (dd->freezemsg)
2088                         snprintf(dd->freezemsg, dd->freezelen,
2089                                  "{%s}", msg);
2090                 qib_disable_after_error(dd);
2091         }
2092 bail:;
2093 }
2094
2095 /**
2096  * qib_7322_init_hwerrors - enable hardware errors
2097  * @dd: the qlogic_ib device
2098  *
2099  * now that we have finished initializing everything that might reasonably
2100  * cause a hardware error, and cleared those errors bits as they occur,
2101  * we can enable hardware errors in the mask (potentially enabling
2102  * freeze mode), and enable hardware errors as errors (along with
2103  * everything else) in errormask
2104  */
2105 static void qib_7322_init_hwerrors(struct qib_devdata *dd)
2106 {
2107         int pidx;
2108         u64 extsval;
2109
2110         extsval = qib_read_kreg64(dd, kr_extstatus);
2111         if (!(extsval & (QIB_EXTS_MEMBIST_DISABLED |
2112                          QIB_EXTS_MEMBIST_ENDTEST)))
2113                 qib_dev_err(dd, "MemBIST did not complete!\n");
2114
2115         /* never clear BIST failure, so reported on each driver load */
2116         qib_write_kreg(dd, kr_hwerrclear, ~HWE_MASK(PowerOnBISTFailed));
2117         qib_write_kreg(dd, kr_hwerrmask, dd->cspec->hwerrmask);
2118
2119         /* clear all */
2120         qib_write_kreg(dd, kr_errclear, ~0ULL);
2121         /* enable errors that are masked, at least this first time. */
2122         qib_write_kreg(dd, kr_errmask, ~0ULL);
2123         dd->cspec->errormask = qib_read_kreg64(dd, kr_errmask);
2124         for (pidx = 0; pidx < dd->num_pports; ++pidx)
2125                 if (dd->pport[pidx].link_speed_supported)
2126                         qib_write_kreg_port(dd->pport + pidx, krp_errmask,
2127                                             ~0ULL);
2128 }
2129
2130 /*
2131  * Disable and enable the armlaunch error.  Used for PIO bandwidth testing
2132  * on chips that are count-based, rather than trigger-based.  There is no
2133  * reference counting, but that's also fine, given the intended use.
2134  * Only chip-specific because it's all register accesses
2135  */
2136 static void qib_set_7322_armlaunch(struct qib_devdata *dd, u32 enable)
2137 {
2138         if (enable) {
2139                 qib_write_kreg(dd, kr_errclear, QIB_E_SPIOARMLAUNCH);
2140                 dd->cspec->errormask |= QIB_E_SPIOARMLAUNCH;
2141         } else
2142                 dd->cspec->errormask &= ~QIB_E_SPIOARMLAUNCH;
2143         qib_write_kreg(dd, kr_errmask, dd->cspec->errormask);
2144 }
2145
2146 /*
2147  * Formerly took parameter <which> in pre-shifted,
2148  * pre-merged form with LinkCmd and LinkInitCmd
2149  * together, and assuming the zero was NOP.
2150  */
2151 static void qib_set_ib_7322_lstate(struct qib_pportdata *ppd, u16 linkcmd,
2152                                    u16 linitcmd)
2153 {
2154         u64 mod_wd;
2155         struct qib_devdata *dd = ppd->dd;
2156         unsigned long flags;
2157
2158         if (linitcmd == QLOGIC_IB_IBCC_LINKINITCMD_DISABLE) {
2159                 /*
2160                  * If we are told to disable, note that so link-recovery
2161                  * code does not attempt to bring us back up.
2162                  * Also reset everything that we can, so we start
2163                  * completely clean when re-enabled (before we
2164                  * actually issue the disable to the IBC)
2165                  */
2166                 qib_7322_mini_pcs_reset(ppd);
2167                 spin_lock_irqsave(&ppd->lflags_lock, flags);
2168                 ppd->lflags |= QIBL_IB_LINK_DISABLED;
2169                 spin_unlock_irqrestore(&ppd->lflags_lock, flags);
2170         } else if (linitcmd || linkcmd == QLOGIC_IB_IBCC_LINKCMD_DOWN) {
2171                 /*
2172                  * Any other linkinitcmd will lead to LINKDOWN and then
2173                  * to INIT (if all is well), so clear flag to let
2174                  * link-recovery code attempt to bring us back up.
2175                  */
2176                 spin_lock_irqsave(&ppd->lflags_lock, flags);
2177                 ppd->lflags &= ~QIBL_IB_LINK_DISABLED;
2178                 spin_unlock_irqrestore(&ppd->lflags_lock, flags);
2179                 /*
2180                  * Clear status change interrupt reduction so the
2181                  * new state is seen.
2182                  */
2183                 ppd->cpspec->ibcctrl_a &=
2184                         ~SYM_MASK(IBCCtrlA_0, IBStatIntReductionEn);
2185         }
2186
2187         mod_wd = (linkcmd << IBA7322_IBCC_LINKCMD_SHIFT) |
2188                 (linitcmd << QLOGIC_IB_IBCC_LINKINITCMD_SHIFT);
2189
2190         qib_write_kreg_port(ppd, krp_ibcctrl_a, ppd->cpspec->ibcctrl_a |
2191                             mod_wd);
2192         /* write to chip to prevent back-to-back writes of ibc reg */
2193         qib_write_kreg(dd, kr_scratch, 0);
2194
2195 }
2196
2197 /*
2198  * The total RCV buffer memory is 64KB, used for both ports, and is
2199  * in units of 64 bytes (same as IB flow control credit unit).
2200  * The consumedVL unit in the same registers are in 32 byte units!
2201  * So, a VL15 packet needs 4.50 IB credits, and 9 rx buffer chunks,
2202  * and we can therefore allocate just 9 IB credits for 2 VL15 packets
2203  * in krp_rxcreditvl15, rather than 10.
2204  */
2205 #define RCV_BUF_UNITSZ 64
2206 #define NUM_RCV_BUF_UNITS(dd) ((64 * 1024) / (RCV_BUF_UNITSZ * dd->num_pports))
2207
2208 static void set_vls(struct qib_pportdata *ppd)
2209 {
2210         int i, numvls, totcred, cred_vl, vl0extra;
2211         struct qib_devdata *dd = ppd->dd;
2212         u64 val;
2213
2214         numvls = qib_num_vls(ppd->vls_operational);
2215
2216         /*
2217          * Set up per-VL credits. Below is kluge based on these assumptions:
2218          * 1) port is disabled at the time early_init is called.
2219          * 2) give VL15 17 credits, for two max-plausible packets.
2220          * 3) Give VL0-N the rest, with any rounding excess used for VL0
2221          */
2222         /* 2 VL15 packets @ 288 bytes each (including IB headers) */
2223         totcred = NUM_RCV_BUF_UNITS(dd);
2224         cred_vl = (2 * 288 + RCV_BUF_UNITSZ - 1) / RCV_BUF_UNITSZ;
2225         totcred -= cred_vl;
2226         qib_write_kreg_port(ppd, krp_rxcreditvl15, (u64) cred_vl);
2227         cred_vl = totcred / numvls;
2228         vl0extra = totcred - cred_vl * numvls;
2229         qib_write_kreg_port(ppd, krp_rxcreditvl0, cred_vl + vl0extra);
2230         for (i = 1; i < numvls; i++)
2231                 qib_write_kreg_port(ppd, krp_rxcreditvl0 + i, cred_vl);
2232         for (; i < 8; i++) /* no buffer space for other VLs */
2233                 qib_write_kreg_port(ppd, krp_rxcreditvl0 + i, 0);
2234
2235         /* Notify IBC that credits need to be recalculated */
2236         val = qib_read_kreg_port(ppd, krp_ibsdtestiftx);
2237         val |= SYM_MASK(IB_SDTEST_IF_TX_0, CREDIT_CHANGE);
2238         qib_write_kreg_port(ppd, krp_ibsdtestiftx, val);
2239         qib_write_kreg(dd, kr_scratch, 0ULL);
2240         val &= ~SYM_MASK(IB_SDTEST_IF_TX_0, CREDIT_CHANGE);
2241         qib_write_kreg_port(ppd, krp_ibsdtestiftx, val);
2242
2243         for (i = 0; i < numvls; i++)
2244                 val = qib_read_kreg_port(ppd, krp_rxcreditvl0 + i);
2245         val = qib_read_kreg_port(ppd, krp_rxcreditvl15);
2246
2247         /* Change the number of operational VLs */
2248         ppd->cpspec->ibcctrl_a = (ppd->cpspec->ibcctrl_a &
2249                                 ~SYM_MASK(IBCCtrlA_0, NumVLane)) |
2250                 ((u64)(numvls - 1) << SYM_LSB(IBCCtrlA_0, NumVLane));
2251         qib_write_kreg_port(ppd, krp_ibcctrl_a, ppd->cpspec->ibcctrl_a);
2252         qib_write_kreg(dd, kr_scratch, 0ULL);
2253 }
2254
2255 /*
2256  * The code that deals with actual SerDes is in serdes_7322_init().
2257  * Compared to the code for iba7220, it is minimal.
2258  */
2259 static int serdes_7322_init(struct qib_pportdata *ppd);
2260
2261 /**
2262  * qib_7322_bringup_serdes - bring up the serdes
2263  * @ppd: physical port on the qlogic_ib device
2264  */
2265 static int qib_7322_bringup_serdes(struct qib_pportdata *ppd)
2266 {
2267         struct qib_devdata *dd = ppd->dd;
2268         u64 val, guid, ibc;
2269         unsigned long flags;
2270         int ret = 0;
2271
2272         /*
2273          * SerDes model not in Pd, but still need to
2274          * set up much of IBCCtrl and IBCDDRCtrl; move elsewhere
2275          * eventually.
2276          */
2277         /* Put IBC in reset, sends disabled (should be in reset already) */
2278         ppd->cpspec->ibcctrl_a &= ~SYM_MASK(IBCCtrlA_0, IBLinkEn);
2279         qib_write_kreg_port(ppd, krp_ibcctrl_a, ppd->cpspec->ibcctrl_a);
2280         qib_write_kreg(dd, kr_scratch, 0ULL);
2281
2282         if (qib_compat_ddr_negotiate) {
2283                 ppd->cpspec->ibdeltainprog = 1;
2284                 ppd->cpspec->ibsymsnap = read_7322_creg32_port(ppd,
2285                                                 crp_ibsymbolerr);
2286                 ppd->cpspec->iblnkerrsnap = read_7322_creg32_port(ppd,
2287                                                 crp_iblinkerrrecov);
2288         }
2289
2290         /* flowcontrolwatermark is in units of KBytes */
2291         ibc = 0x5ULL << SYM_LSB(IBCCtrlA_0, FlowCtrlWaterMark);
2292         /*
2293          * Flow control is sent this often, even if no changes in
2294          * buffer space occur.  Units are 128ns for this chip.
2295          * Set to 3usec.
2296          */
2297         ibc |= 24ULL << SYM_LSB(IBCCtrlA_0, FlowCtrlPeriod);
2298         /* max error tolerance */
2299         ibc |= 0xfULL << SYM_LSB(IBCCtrlA_0, PhyerrThreshold);
2300         /* IB credit flow control. */
2301         ibc |= 0xfULL << SYM_LSB(IBCCtrlA_0, OverrunThreshold);
2302         /*
2303          * set initial max size pkt IBC will send, including ICRC; it's the
2304          * PIO buffer size in dwords, less 1; also see qib_set_mtu()
2305          */
2306         ibc |= ((u64)(ppd->ibmaxlen >> 2) + 1) <<
2307                 SYM_LSB(IBCCtrlA_0, MaxPktLen);
2308         ppd->cpspec->ibcctrl_a = ibc; /* without linkcmd or linkinitcmd! */
2309
2310         /*
2311          * Reset the PCS interface to the serdes (and also ibc, which is still
2312          * in reset from above).  Writes new value of ibcctrl_a as last step.
2313          */
2314         qib_7322_mini_pcs_reset(ppd);
2315
2316         if (!ppd->cpspec->ibcctrl_b) {
2317                 unsigned lse = ppd->link_speed_enabled;
2318
2319                 /*
2320                  * Not on re-init after reset, establish shadow
2321                  * and force initial config.
2322                  */
2323                 ppd->cpspec->ibcctrl_b = qib_read_kreg_port(ppd,
2324                                                              krp_ibcctrl_b);
2325                 ppd->cpspec->ibcctrl_b &= ~(IBA7322_IBC_SPEED_QDR |
2326                                 IBA7322_IBC_SPEED_DDR |
2327                                 IBA7322_IBC_SPEED_SDR |
2328                                 IBA7322_IBC_WIDTH_AUTONEG |
2329                                 SYM_MASK(IBCCtrlB_0, IB_LANE_REV_SUPPORTED));
2330                 if (lse & (lse - 1)) /* Muliple speeds enabled */
2331                         ppd->cpspec->ibcctrl_b |=
2332                                 (lse << IBA7322_IBC_SPEED_LSB) |
2333                                 IBA7322_IBC_IBTA_1_2_MASK |
2334                                 IBA7322_IBC_MAX_SPEED_MASK;
2335                 else
2336                         ppd->cpspec->ibcctrl_b |= (lse == QIB_IB_QDR) ?
2337                                 IBA7322_IBC_SPEED_QDR |
2338                                  IBA7322_IBC_IBTA_1_2_MASK :
2339                                 (lse == QIB_IB_DDR) ?
2340                                         IBA7322_IBC_SPEED_DDR :
2341                                         IBA7322_IBC_SPEED_SDR;
2342                 if ((ppd->link_width_enabled & (IB_WIDTH_1X | IB_WIDTH_4X)) ==
2343                     (IB_WIDTH_1X | IB_WIDTH_4X))
2344                         ppd->cpspec->ibcctrl_b |= IBA7322_IBC_WIDTH_AUTONEG;
2345                 else
2346                         ppd->cpspec->ibcctrl_b |=
2347                                 ppd->link_width_enabled == IB_WIDTH_4X ?
2348                                 IBA7322_IBC_WIDTH_4X_ONLY :
2349                                 IBA7322_IBC_WIDTH_1X_ONLY;
2350
2351                 /* always enable these on driver reload, not sticky */
2352                 ppd->cpspec->ibcctrl_b |= (IBA7322_IBC_RXPOL_MASK |
2353                         IBA7322_IBC_HRTBT_MASK);
2354         }
2355         qib_write_kreg_port(ppd, krp_ibcctrl_b, ppd->cpspec->ibcctrl_b);
2356
2357         /* setup so we have more time at CFGTEST to change H1 */
2358         val = qib_read_kreg_port(ppd, krp_ibcctrl_c);
2359         val &= ~SYM_MASK(IBCCtrlC_0, IB_FRONT_PORCH);
2360         val |= 0xfULL << SYM_LSB(IBCCtrlC_0, IB_FRONT_PORCH);
2361         qib_write_kreg_port(ppd, krp_ibcctrl_c, val);
2362
2363         serdes_7322_init(ppd);
2364
2365         guid = be64_to_cpu(ppd->guid);
2366         if (!guid) {
2367                 if (dd->base_guid)
2368                         guid = be64_to_cpu(dd->base_guid) + ppd->port - 1;
2369                 ppd->guid = cpu_to_be64(guid);
2370         }
2371
2372         qib_write_kreg_port(ppd, krp_hrtbt_guid, guid);
2373         /* write to chip to prevent back-to-back writes of ibc reg */
2374         qib_write_kreg(dd, kr_scratch, 0);
2375
2376         /* Enable port */
2377         ppd->cpspec->ibcctrl_a |= SYM_MASK(IBCCtrlA_0, IBLinkEn);
2378         set_vls(ppd);
2379
2380         /* initially come up DISABLED, without sending anything. */
2381         val = ppd->cpspec->ibcctrl_a | (QLOGIC_IB_IBCC_LINKINITCMD_DISABLE <<
2382                                         QLOGIC_IB_IBCC_LINKINITCMD_SHIFT);
2383         qib_write_kreg_port(ppd, krp_ibcctrl_a, val);
2384         qib_write_kreg(dd, kr_scratch, 0ULL);
2385         /* clear the linkinit cmds */
2386         ppd->cpspec->ibcctrl_a = val & ~SYM_MASK(IBCCtrlA_0, LinkInitCmd);
2387
2388         /* be paranoid against later code motion, etc. */
2389         spin_lock_irqsave(&dd->cspec->rcvmod_lock, flags);
2390         ppd->p_rcvctrl |= SYM_MASK(RcvCtrl_0, RcvIBPortEnable);
2391         qib_write_kreg_port(ppd, krp_rcvctrl, ppd->p_rcvctrl);
2392         spin_unlock_irqrestore(&dd->cspec->rcvmod_lock, flags);
2393
2394         /* Also enable IBSTATUSCHG interrupt.  */
2395         val = qib_read_kreg_port(ppd, krp_errmask);
2396         qib_write_kreg_port(ppd, krp_errmask,
2397                 val | ERR_MASK_N(IBStatusChanged));
2398
2399         /* Always zero until we start messing with SerDes for real */
2400         return ret;
2401 }
2402
2403 /**
2404  * qib_7322_quiet_serdes - set serdes to txidle
2405  * @dd: the qlogic_ib device
2406  * Called when driver is being unloaded
2407  */
2408 static void qib_7322_mini_quiet_serdes(struct qib_pportdata *ppd)
2409 {
2410         u64 val;
2411         unsigned long flags;
2412
2413         qib_set_ib_7322_lstate(ppd, 0, QLOGIC_IB_IBCC_LINKINITCMD_DISABLE);
2414
2415         spin_lock_irqsave(&ppd->lflags_lock, flags);
2416         ppd->lflags &= ~QIBL_IB_AUTONEG_INPROG;
2417         spin_unlock_irqrestore(&ppd->lflags_lock, flags);
2418         wake_up(&ppd->cpspec->autoneg_wait);
2419         cancel_delayed_work_sync(&ppd->cpspec->autoneg_work);
2420         if (ppd->dd->cspec->r1)
2421                 cancel_delayed_work_sync(&ppd->cpspec->ipg_work);
2422
2423         ppd->cpspec->chase_end = 0;
2424         if (ppd->cpspec->chase_timer.data) /* if initted */
2425                 del_timer_sync(&ppd->cpspec->chase_timer);
2426
2427         /*
2428          * Despite the name, actually disables IBC as well. Do it when
2429          * we are as sure as possible that no more packets can be
2430          * received, following the down and the PCS reset.
2431          * The actual disabling happens in qib_7322_mini_pci_reset(),
2432          * along with the PCS being reset.
2433          */
2434         ppd->cpspec->ibcctrl_a &= ~SYM_MASK(IBCCtrlA_0, IBLinkEn);
2435         qib_7322_mini_pcs_reset(ppd);
2436
2437         /*
2438          * Update the adjusted counters so the adjustment persists
2439          * across driver reload.
2440          */
2441         if (ppd->cpspec->ibsymdelta || ppd->cpspec->iblnkerrdelta ||
2442             ppd->cpspec->ibdeltainprog || ppd->cpspec->iblnkdowndelta) {
2443                 struct qib_devdata *dd = ppd->dd;
2444                 u64 diagc;
2445
2446                 /* enable counter writes */
2447                 diagc = qib_read_kreg64(dd, kr_hwdiagctrl);
2448                 qib_write_kreg(dd, kr_hwdiagctrl,
2449                                diagc | SYM_MASK(HwDiagCtrl, CounterWrEnable));
2450
2451                 if (ppd->cpspec->ibsymdelta || ppd->cpspec->ibdeltainprog) {
2452                         val = read_7322_creg32_port(ppd, crp_ibsymbolerr);
2453                         if (ppd->cpspec->ibdeltainprog)
2454                                 val -= val - ppd->cpspec->ibsymsnap;
2455                         val -= ppd->cpspec->ibsymdelta;
2456                         write_7322_creg_port(ppd, crp_ibsymbolerr, val);
2457                 }
2458                 if (ppd->cpspec->iblnkerrdelta || ppd->cpspec->ibdeltainprog) {
2459                         val = read_7322_creg32_port(ppd, crp_iblinkerrrecov);
2460                         if (ppd->cpspec->ibdeltainprog)
2461                                 val -= val - ppd->cpspec->iblnkerrsnap;
2462                         val -= ppd->cpspec->iblnkerrdelta;
2463                         write_7322_creg_port(ppd, crp_iblinkerrrecov, val);
2464                 }
2465                 if (ppd->cpspec->iblnkdowndelta) {
2466                         val = read_7322_creg32_port(ppd, crp_iblinkdown);
2467                         val += ppd->cpspec->iblnkdowndelta;
2468                         write_7322_creg_port(ppd, crp_iblinkdown, val);
2469                 }
2470                 /*
2471                  * No need to save ibmalfdelta since IB perfcounters
2472                  * are cleared on driver reload.
2473                  */
2474
2475                 /* and disable counter writes */
2476                 qib_write_kreg(dd, kr_hwdiagctrl, diagc);
2477         }
2478 }
2479
2480 /**
2481  * qib_setup_7322_setextled - set the state of the two external LEDs
2482  * @ppd: physical port on the qlogic_ib device
2483  * @on: whether the link is up or not
2484  *
2485  * The exact combo of LEDs if on is true is determined by looking
2486  * at the ibcstatus.
2487  *
2488  * These LEDs indicate the physical and logical state of IB link.
2489  * For this chip (at least with recommended board pinouts), LED1
2490  * is Yellow (logical state) and LED2 is Green (physical state),
2491  *
2492  * Note:  We try to match the Mellanox HCA LED behavior as best
2493  * we can.  Green indicates physical link state is OK (something is
2494  * plugged in, and we can train).
2495  * Amber indicates the link is logically up (ACTIVE).
2496  * Mellanox further blinks the amber LED to indicate data packet
2497  * activity, but we have no hardware support for that, so it would
2498  * require waking up every 10-20 msecs and checking the counters
2499  * on the chip, and then turning the LED off if appropriate.  That's
2500  * visible overhead, so not something we will do.
2501  */
2502 static void qib_setup_7322_setextled(struct qib_pportdata *ppd, u32 on)
2503 {
2504         struct qib_devdata *dd = ppd->dd;
2505         u64 extctl, ledblink = 0, val;
2506         unsigned long flags;
2507         int yel, grn;
2508
2509         /*
2510          * The diags use the LED to indicate diag info, so we leave
2511          * the external LED alone when the diags are running.
2512          */
2513         if (dd->diag_client)
2514                 return;
2515
2516         /* Allow override of LED display for, e.g. Locating system in rack */
2517         if (ppd->led_override) {
2518                 grn = (ppd->led_override & QIB_LED_PHYS);
2519                 yel = (ppd->led_override & QIB_LED_LOG);
2520         } else if (on) {
2521                 val = qib_read_kreg_port(ppd, krp_ibcstatus_a);
2522                 grn = qib_7322_phys_portstate(val) ==
2523                         IB_PHYSPORTSTATE_LINKUP;
2524                 yel = qib_7322_iblink_state(val) == IB_PORT_ACTIVE;
2525         } else {
2526                 grn = 0;
2527                 yel = 0;
2528         }
2529
2530         spin_lock_irqsave(&dd->cspec->gpio_lock, flags);
2531         extctl = dd->cspec->extctrl & (ppd->port == 1 ?
2532                 ~ExtLED_IB1_MASK : ~ExtLED_IB2_MASK);
2533         if (grn) {
2534                 extctl |= ppd->port == 1 ? ExtLED_IB1_GRN : ExtLED_IB2_GRN;
2535                 /*
2536                  * Counts are in chip clock (4ns) periods.
2537                  * This is 1/16 sec (66.6ms) on,
2538                  * 3/16 sec (187.5 ms) off, with packets rcvd.
2539                  */
2540                 ledblink = ((66600 * 1000UL / 4) << IBA7322_LEDBLINK_ON_SHIFT) |
2541                         ((187500 * 1000UL / 4) << IBA7322_LEDBLINK_OFF_SHIFT);
2542         }
2543         if (yel)
2544                 extctl |= ppd->port == 1 ? ExtLED_IB1_YEL : ExtLED_IB2_YEL;
2545         dd->cspec->extctrl = extctl;
2546         qib_write_kreg(dd, kr_extctrl, dd->cspec->extctrl);
2547         spin_unlock_irqrestore(&dd->cspec->gpio_lock, flags);
2548
2549         if (ledblink) /* blink the LED on packet receive */
2550                 qib_write_kreg_port(ppd, krp_rcvpktledcnt, ledblink);
2551 }
2552
2553 /*
2554  * Disable MSIx interrupt if enabled, call generic MSIx code
2555  * to cleanup, and clear pending MSIx interrupts.
2556  * Used for fallback to INTx, after reset, and when MSIx setup fails.
2557  */
2558 static void qib_7322_nomsix(struct qib_devdata *dd)
2559 {
2560         u64 intgranted;
2561         int n;
2562
2563         dd->cspec->main_int_mask = ~0ULL;
2564         n = dd->cspec->num_msix_entries;
2565         if (n) {
2566                 int i;
2567
2568                 dd->cspec->num_msix_entries = 0;
2569                 for (i = 0; i < n; i++) {
2570                         irq_set_affinity_hint(
2571                           dd->cspec->msix_entries[i].msix.vector, NULL);
2572                         free_cpumask_var(dd->cspec->msix_entries[i].mask);
2573                         free_irq(dd->cspec->msix_entries[i].msix.vector,
2574                            dd->cspec->msix_entries[i].arg);
2575                 }
2576                 qib_nomsix(dd);
2577         }
2578         /* make sure no MSIx interrupts are left pending */
2579         intgranted = qib_read_kreg64(dd, kr_intgranted);
2580         if (intgranted)
2581                 qib_write_kreg(dd, kr_intgranted, intgranted);
2582 }
2583
2584 static void qib_7322_free_irq(struct qib_devdata *dd)
2585 {
2586         if (dd->cspec->irq) {
2587                 free_irq(dd->cspec->irq, dd);
2588                 dd->cspec->irq = 0;
2589         }
2590         qib_7322_nomsix(dd);
2591 }
2592
2593 static void qib_setup_7322_cleanup(struct qib_devdata *dd)
2594 {
2595         int i;
2596
2597         qib_7322_free_irq(dd);
2598         kfree(dd->cspec->cntrs);
2599         kfree(dd->cspec->sendchkenable);
2600         kfree(dd->cspec->sendgrhchk);
2601         kfree(dd->cspec->sendibchk);
2602         kfree(dd->cspec->msix_entries);
2603         for (i = 0; i < dd->num_pports; i++) {
2604                 unsigned long flags;
2605                 u32 mask = QSFP_GPIO_MOD_PRS_N |
2606                         (QSFP_GPIO_MOD_PRS_N << QSFP_GPIO_PORT2_SHIFT);
2607
2608                 kfree(dd->pport[i].cpspec->portcntrs);
2609                 if (dd->flags & QIB_HAS_QSFP) {
2610                         spin_lock_irqsave(&dd->cspec->gpio_lock, flags);
2611                         dd->cspec->gpio_mask &= ~mask;
2612                         qib_write_kreg(dd, kr_gpio_mask, dd->cspec->gpio_mask);
2613                         spin_unlock_irqrestore(&dd->cspec->gpio_lock, flags);
2614                         qib_qsfp_deinit(&dd->pport[i].cpspec->qsfp_data);
2615                 }
2616                 if (dd->pport[i].ibport_data.smi_ah)
2617                         ib_destroy_ah(&dd->pport[i].ibport_data.smi_ah->ibah);
2618         }
2619 }
2620
2621 /* handle SDMA interrupts */
2622 static void sdma_7322_intr(struct qib_devdata *dd, u64 istat)
2623 {
2624         struct qib_pportdata *ppd0 = &dd->pport[0];
2625         struct qib_pportdata *ppd1 = &dd->pport[1];
2626         u64 intr0 = istat & (INT_MASK_P(SDma, 0) |
2627                 INT_MASK_P(SDmaIdle, 0) | INT_MASK_P(SDmaProgress, 0));
2628         u64 intr1 = istat & (INT_MASK_P(SDma, 1) |
2629                 INT_MASK_P(SDmaIdle, 1) | INT_MASK_P(SDmaProgress, 1));
2630
2631         if (intr0)
2632                 qib_sdma_intr(ppd0);
2633         if (intr1)
2634                 qib_sdma_intr(ppd1);
2635
2636         if (istat & INT_MASK_PM(SDmaCleanupDone, 0))
2637                 qib_sdma_process_event(ppd0, qib_sdma_event_e20_hw_started);
2638         if (istat & INT_MASK_PM(SDmaCleanupDone, 1))
2639                 qib_sdma_process_event(ppd1, qib_sdma_event_e20_hw_started);
2640 }
2641
2642 /*
2643  * Set or clear the Send buffer available interrupt enable bit.
2644  */
2645 static void qib_wantpiobuf_7322_intr(struct qib_devdata *dd, u32 needint)
2646 {
2647         unsigned long flags;
2648
2649         spin_lock_irqsave(&dd->sendctrl_lock, flags);
2650         if (needint)
2651                 dd->sendctrl |= SYM_MASK(SendCtrl, SendIntBufAvail);
2652         else
2653                 dd->sendctrl &= ~SYM_MASK(SendCtrl, SendIntBufAvail);
2654         qib_write_kreg(dd, kr_sendctrl, dd->sendctrl);
2655         qib_write_kreg(dd, kr_scratch, 0ULL);
2656         spin_unlock_irqrestore(&dd->sendctrl_lock, flags);
2657 }
2658
2659 /*
2660  * Somehow got an interrupt with reserved bits set in interrupt status.
2661  * Print a message so we know it happened, then clear them.
2662  * keep mainline interrupt handler cache-friendly
2663  */
2664 static noinline void unknown_7322_ibits(struct qib_devdata *dd, u64 istat)
2665 {
2666         u64 kills;
2667         char msg[128];
2668
2669         kills = istat & ~QIB_I_BITSEXTANT;
2670         qib_dev_err(dd, "Clearing reserved interrupt(s) 0x%016llx:"
2671                     " %s\n", (unsigned long long) kills, msg);
2672         qib_write_kreg(dd, kr_intmask, (dd->cspec->int_enable_mask & ~kills));
2673 }
2674
2675 /* keep mainline interrupt handler cache-friendly */
2676 static noinline void unknown_7322_gpio_intr(struct qib_devdata *dd)
2677 {
2678         u32 gpiostatus;
2679         int handled = 0;
2680         int pidx;
2681
2682         /*
2683          * Boards for this chip currently don't use GPIO interrupts,
2684          * so clear by writing GPIOstatus to GPIOclear, and complain
2685          * to developer.  To avoid endless repeats, clear
2686          * the bits in the mask, since there is some kind of
2687          * programming error or chip problem.
2688          */
2689         gpiostatus = qib_read_kreg32(dd, kr_gpio_status);
2690         /*
2691          * In theory, writing GPIOstatus to GPIOclear could
2692          * have a bad side-effect on some diagnostic that wanted
2693          * to poll for a status-change, but the various shadows
2694          * make that problematic at best. Diags will just suppress
2695          * all GPIO interrupts during such tests.
2696          */
2697         qib_write_kreg(dd, kr_gpio_clear, gpiostatus);
2698         /*
2699          * Check for QSFP MOD_PRS changes
2700          * only works for single port if IB1 != pidx1
2701          */
2702         for (pidx = 0; pidx < dd->num_pports && (dd->flags & QIB_HAS_QSFP);
2703              ++pidx) {
2704                 struct qib_pportdata *ppd;
2705                 struct qib_qsfp_data *qd;
2706                 u32 mask;
2707                 if (!dd->pport[pidx].link_speed_supported)
2708                         continue;
2709                 mask = QSFP_GPIO_MOD_PRS_N;
2710                 ppd = dd->pport + pidx;
2711                 mask <<= (QSFP_GPIO_PORT2_SHIFT * ppd->hw_pidx);
2712                 if (gpiostatus & dd->cspec->gpio_mask & mask) {
2713                         u64 pins;
2714                         qd = &ppd->cpspec->qsfp_data;
2715                         gpiostatus &= ~mask;
2716                         pins = qib_read_kreg64(dd, kr_extstatus);
2717                         pins >>= SYM_LSB(EXTStatus, GPIOIn);
2718                         if (!(pins & mask)) {
2719                                 ++handled;
2720                                 qd->t_insert = jiffies;
2721                                 queue_work(ib_wq, &qd->work);
2722                         }
2723                 }
2724         }
2725
2726         if (gpiostatus && !handled) {
2727                 const u32 mask = qib_read_kreg32(dd, kr_gpio_mask);
2728                 u32 gpio_irq = mask & gpiostatus;
2729
2730                 /*
2731                  * Clear any troublemakers, and update chip from shadow
2732                  */
2733                 dd->cspec->gpio_mask &= ~gpio_irq;
2734                 qib_write_kreg(dd, kr_gpio_mask, dd->cspec->gpio_mask);
2735         }
2736 }
2737
2738 /*
2739  * Handle errors and unusual events first, separate function
2740  * to improve cache hits for fast path interrupt handling.
2741  */
2742 static noinline void unlikely_7322_intr(struct qib_devdata *dd, u64 istat)
2743 {
2744         if (istat & ~QIB_I_BITSEXTANT)
2745                 unknown_7322_ibits(dd, istat);
2746         if (istat & QIB_I_GPIO)
2747                 unknown_7322_gpio_intr(dd);
2748         if (istat & QIB_I_C_ERROR) {
2749                 qib_write_kreg(dd, kr_errmask, 0ULL);
2750                 tasklet_schedule(&dd->error_tasklet);
2751         }
2752         if (istat & INT_MASK_P(Err, 0) && dd->rcd[0])
2753                 handle_7322_p_errors(dd->rcd[0]->ppd);
2754         if (istat & INT_MASK_P(Err, 1) && dd->rcd[1])
2755                 handle_7322_p_errors(dd->rcd[1]->ppd);
2756 }
2757
2758 /*
2759  * Dynamically adjust the rcv int timeout for a context based on incoming
2760  * packet rate.
2761  */
2762 static void adjust_rcv_timeout(struct qib_ctxtdata *rcd, int npkts)
2763 {
2764         struct qib_devdata *dd = rcd->dd;
2765         u32 timeout = dd->cspec->rcvavail_timeout[rcd->ctxt];
2766
2767         /*
2768          * Dynamically adjust idle timeout on chip
2769          * based on number of packets processed.
2770          */
2771         if (npkts < rcv_int_count && timeout > 2)
2772                 timeout >>= 1;
2773         else if (npkts >= rcv_int_count && timeout < rcv_int_timeout)
2774                 timeout = min(timeout << 1, rcv_int_timeout);
2775         else
2776                 return;
2777
2778         dd->cspec->rcvavail_timeout[rcd->ctxt] = timeout;
2779         qib_write_kreg(dd, kr_rcvavailtimeout + rcd->ctxt, timeout);
2780 }
2781
2782 /*
2783  * This is the main interrupt handler.
2784  * It will normally only be used for low frequency interrupts but may
2785  * have to handle all interrupts if INTx is enabled or fewer than normal
2786  * MSIx interrupts were allocated.
2787  * This routine should ignore the interrupt bits for any of the
2788  * dedicated MSIx handlers.
2789  */
2790 static irqreturn_t qib_7322intr(int irq, void *data)
2791 {
2792         struct qib_devdata *dd = data;
2793         irqreturn_t ret;
2794         u64 istat;
2795         u64 ctxtrbits;
2796         u64 rmask;
2797         unsigned i;
2798         u32 npkts;
2799
2800         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT) {
2801                 /*
2802                  * This return value is not great, but we do not want the
2803                  * interrupt core code to remove our interrupt handler
2804                  * because we don't appear to be handling an interrupt
2805                  * during a chip reset.
2806                  */
2807                 ret = IRQ_HANDLED;
2808                 goto bail;
2809         }
2810
2811         istat = qib_read_kreg64(dd, kr_intstatus);
2812
2813         if (unlikely(istat == ~0ULL)) {
2814                 qib_bad_intrstatus(dd);
2815                 qib_dev_err(dd, "Interrupt status all f's, skipping\n");
2816                 /* don't know if it was our interrupt or not */
2817                 ret = IRQ_NONE;
2818                 goto bail;
2819         }
2820
2821         istat &= dd->cspec->main_int_mask;
2822         if (unlikely(!istat)) {
2823                 /* already handled, or shared and not us */
2824                 ret = IRQ_NONE;
2825                 goto bail;
2826         }
2827
2828         qib_stats.sps_ints++;
2829         if (dd->int_counter != (u32) -1)
2830                 dd->int_counter++;
2831
2832         /* handle "errors" of various kinds first, device ahead of port */
2833         if (unlikely(istat & (~QIB_I_BITSEXTANT | QIB_I_GPIO |
2834                               QIB_I_C_ERROR | INT_MASK_P(Err, 0) |
2835                               INT_MASK_P(Err, 1))))
2836                 unlikely_7322_intr(dd, istat);
2837
2838         /*
2839          * Clear the interrupt bits we found set, relatively early, so we
2840          * "know" know the chip will have seen this by the time we process
2841          * the queue, and will re-interrupt if necessary.  The processor
2842          * itself won't take the interrupt again until we return.
2843          */
2844         qib_write_kreg(dd, kr_intclear, istat);
2845
2846         /*
2847          * Handle kernel receive queues before checking for pio buffers
2848          * available since receives can overflow; piobuf waiters can afford
2849          * a few extra cycles, since they were waiting anyway.
2850          */
2851         ctxtrbits = istat & (QIB_I_RCVAVAIL_MASK | QIB_I_RCVURG_MASK);
2852         if (ctxtrbits) {
2853                 rmask = (1ULL << QIB_I_RCVAVAIL_LSB) |
2854                         (1ULL << QIB_I_RCVURG_LSB);
2855                 for (i = 0; i < dd->first_user_ctxt; i++) {
2856                         if (ctxtrbits & rmask) {
2857                                 ctxtrbits &= ~rmask;
2858                                 if (dd->rcd[i])
2859                                         qib_kreceive(dd->rcd[i], NULL, &npkts);
2860                         }
2861                         rmask <<= 1;
2862                 }
2863                 if (ctxtrbits) {
2864                         ctxtrbits = (ctxtrbits >> QIB_I_RCVAVAIL_LSB) |
2865                                 (ctxtrbits >> QIB_I_RCVURG_LSB);
2866                         qib_handle_urcv(dd, ctxtrbits);
2867                 }
2868         }
2869
2870         if (istat & (QIB_I_P_SDMAINT(0) | QIB_I_P_SDMAINT(1)))
2871                 sdma_7322_intr(dd, istat);
2872
2873         if ((istat & QIB_I_SPIOBUFAVAIL) && (dd->flags & QIB_INITTED))
2874                 qib_ib_piobufavail(dd);
2875
2876         ret = IRQ_HANDLED;
2877 bail:
2878         return ret;
2879 }
2880
2881 /*
2882  * Dedicated receive packet available interrupt handler.
2883  */
2884 static irqreturn_t qib_7322pintr(int irq, void *data)
2885 {
2886         struct qib_ctxtdata *rcd = data;
2887         struct qib_devdata *dd = rcd->dd;
2888         u32 npkts;
2889
2890         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
2891                 /*
2892                  * This return value is not great, but we do not want the
2893                  * interrupt core code to remove our interrupt handler
2894                  * because we don't appear to be handling an interrupt
2895                  * during a chip reset.
2896                  */
2897                 return IRQ_HANDLED;
2898
2899         qib_stats.sps_ints++;
2900         if (dd->int_counter != (u32) -1)
2901                 dd->int_counter++;
2902
2903         /* Clear the interrupt bit we expect to be set. */
2904         qib_write_kreg(dd, kr_intclear, ((1ULL << QIB_I_RCVAVAIL_LSB) |
2905                        (1ULL << QIB_I_RCVURG_LSB)) << rcd->ctxt);
2906
2907         qib_kreceive(rcd, NULL, &npkts);
2908
2909         return IRQ_HANDLED;
2910 }
2911
2912 /*
2913  * Dedicated Send buffer available interrupt handler.
2914  */
2915 static irqreturn_t qib_7322bufavail(int irq, void *data)
2916 {
2917         struct qib_devdata *dd = data;
2918
2919         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
2920                 /*
2921                  * This return value is not great, but we do not want the
2922                  * interrupt core code to remove our interrupt handler
2923                  * because we don't appear to be handling an interrupt
2924                  * during a chip reset.
2925                  */
2926                 return IRQ_HANDLED;
2927
2928         qib_stats.sps_ints++;
2929         if (dd->int_counter != (u32) -1)
2930                 dd->int_counter++;
2931
2932         /* Clear the interrupt bit we expect to be set. */
2933         qib_write_kreg(dd, kr_intclear, QIB_I_SPIOBUFAVAIL);
2934
2935         /* qib_ib_piobufavail() will clear the want PIO interrupt if needed */
2936         if (dd->flags & QIB_INITTED)
2937                 qib_ib_piobufavail(dd);
2938         else
2939                 qib_wantpiobuf_7322_intr(dd, 0);
2940
2941         return IRQ_HANDLED;
2942 }
2943
2944 /*
2945  * Dedicated Send DMA interrupt handler.
2946  */
2947 static irqreturn_t sdma_intr(int irq, void *data)
2948 {
2949         struct qib_pportdata *ppd = data;
2950         struct qib_devdata *dd = ppd->dd;
2951
2952         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
2953                 /*
2954                  * This return value is not great, but we do not want the
2955                  * interrupt core code to remove our interrupt handler
2956                  * because we don't appear to be handling an interrupt
2957                  * during a chip reset.
2958                  */
2959                 return IRQ_HANDLED;
2960
2961         qib_stats.sps_ints++;
2962         if (dd->int_counter != (u32) -1)
2963                 dd->int_counter++;
2964
2965         /* Clear the interrupt bit we expect to be set. */
2966         qib_write_kreg(dd, kr_intclear, ppd->hw_pidx ?
2967                        INT_MASK_P(SDma, 1) : INT_MASK_P(SDma, 0));
2968         qib_sdma_intr(ppd);
2969
2970         return IRQ_HANDLED;
2971 }
2972
2973 /*
2974  * Dedicated Send DMA idle interrupt handler.
2975  */
2976 static irqreturn_t sdma_idle_intr(int irq, void *data)
2977 {
2978         struct qib_pportdata *ppd = data;
2979         struct qib_devdata *dd = ppd->dd;
2980
2981         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
2982                 /*
2983                  * This return value is not great, but we do not want the
2984                  * interrupt core code to remove our interrupt handler
2985                  * because we don't appear to be handling an interrupt
2986                  * during a chip reset.
2987                  */
2988                 return IRQ_HANDLED;
2989
2990         qib_stats.sps_ints++;
2991         if (dd->int_counter != (u32) -1)
2992                 dd->int_counter++;
2993
2994         /* Clear the interrupt bit we expect to be set. */
2995         qib_write_kreg(dd, kr_intclear, ppd->hw_pidx ?
2996                        INT_MASK_P(SDmaIdle, 1) : INT_MASK_P(SDmaIdle, 0));
2997         qib_sdma_intr(ppd);
2998
2999         return IRQ_HANDLED;
3000 }
3001
3002 /*
3003  * Dedicated Send DMA progress interrupt handler.
3004  */
3005 static irqreturn_t sdma_progress_intr(int irq, void *data)
3006 {
3007         struct qib_pportdata *ppd = data;
3008         struct qib_devdata *dd = ppd->dd;
3009
3010         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
3011                 /*
3012                  * This return value is not great, but we do not want the
3013                  * interrupt core code to remove our interrupt handler
3014                  * because we don't appear to be handling an interrupt
3015                  * during a chip reset.
3016                  */
3017                 return IRQ_HANDLED;
3018
3019         qib_stats.sps_ints++;
3020         if (dd->int_counter != (u32) -1)
3021                 dd->int_counter++;
3022
3023         /* Clear the interrupt bit we expect to be set. */
3024         qib_write_kreg(dd, kr_intclear, ppd->hw_pidx ?
3025                        INT_MASK_P(SDmaProgress, 1) :
3026                        INT_MASK_P(SDmaProgress, 0));
3027         qib_sdma_intr(ppd);
3028
3029         return IRQ_HANDLED;
3030 }
3031
3032 /*
3033  * Dedicated Send DMA cleanup interrupt handler.
3034  */
3035 static irqreturn_t sdma_cleanup_intr(int irq, void *data)
3036 {
3037         struct qib_pportdata *ppd = data;
3038         struct qib_devdata *dd = ppd->dd;
3039
3040         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
3041                 /*
3042                  * This return value is not great, but we do not want the
3043                  * interrupt core code to remove our interrupt handler
3044                  * because we don't appear to be handling an interrupt
3045                  * during a chip reset.
3046                  */
3047                 return IRQ_HANDLED;
3048
3049         qib_stats.sps_ints++;
3050         if (dd->int_counter != (u32) -1)
3051                 dd->int_counter++;
3052
3053         /* Clear the interrupt bit we expect to be set. */
3054         qib_write_kreg(dd, kr_intclear, ppd->hw_pidx ?
3055                        INT_MASK_PM(SDmaCleanupDone, 1) :
3056                        INT_MASK_PM(SDmaCleanupDone, 0));
3057         qib_sdma_process_event(ppd, qib_sdma_event_e20_hw_started);
3058
3059         return IRQ_HANDLED;
3060 }
3061
3062 /*
3063  * Set up our chip-specific interrupt handler.
3064  * The interrupt type has already been setup, so
3065  * we just need to do the registration and error checking.
3066  * If we are using MSIx interrupts, we may fall back to
3067  * INTx later, if the interrupt handler doesn't get called
3068  * within 1/2 second (see verify_interrupt()).
3069  */
3070 static void qib_setup_7322_interrupt(struct qib_devdata *dd, int clearpend)
3071 {
3072         int ret, i, msixnum;
3073         u64 redirect[6];
3074         u64 mask;
3075         const struct cpumask *local_mask;
3076         int firstcpu, secondcpu = 0, currrcvcpu = 0;
3077
3078         if (!dd->num_pports)
3079                 return;
3080
3081         if (clearpend) {
3082                 /*
3083                  * if not switching interrupt types, be sure interrupts are
3084                  * disabled, and then clear anything pending at this point,
3085                  * because we are starting clean.
3086                  */
3087                 qib_7322_set_intr_state(dd, 0);
3088
3089                 /* clear the reset error, init error/hwerror mask */
3090                 qib_7322_init_hwerrors(dd);
3091
3092                 /* clear any interrupt bits that might be set */
3093                 qib_write_kreg(dd, kr_intclear, ~0ULL);
3094
3095                 /* make sure no pending MSIx intr, and clear diag reg */
3096                 qib_write_kreg(dd, kr_intgranted, ~0ULL);
3097                 qib_write_kreg(dd, kr_vecclr_wo_int, ~0ULL);
3098         }
3099
3100         if (!dd->cspec->num_msix_entries) {
3101                 /* Try to get INTx interrupt */
3102 try_intx:
3103                 if (!dd->pcidev->irq) {
3104                         qib_dev_err(dd, "irq is 0, BIOS error?  "
3105                                     "Interrupts won't work\n");
3106                         goto bail;
3107                 }
3108                 ret = request_irq(dd->pcidev->irq, qib_7322intr,
3109                                   IRQF_SHARED, QIB_DRV_NAME, dd);
3110                 if (ret) {
3111                         qib_dev_err(dd, "Couldn't setup INTx "
3112                                     "interrupt (irq=%d): %d\n",
3113                                     dd->pcidev->irq, ret);
3114                         goto bail;
3115                 }
3116                 dd->cspec->irq = dd->pcidev->irq;
3117                 dd->cspec->main_int_mask = ~0ULL;
3118                 goto bail;
3119         }
3120
3121         /* Try to get MSIx interrupts */
3122         memset(redirect, 0, sizeof redirect);
3123         mask = ~0ULL;
3124         msixnum = 0;
3125         local_mask = cpumask_of_pcibus(dd->pcidev->bus);
3126         firstcpu = cpumask_first(local_mask);
3127         if (firstcpu >= nr_cpu_ids ||
3128                         cpumask_weight(local_mask) == num_online_cpus()) {
3129                 local_mask = topology_core_cpumask(0);
3130                 firstcpu = cpumask_first(local_mask);
3131         }
3132         if (firstcpu < nr_cpu_ids) {
3133                 secondcpu = cpumask_next(firstcpu, local_mask);
3134                 if (secondcpu >= nr_cpu_ids)
3135                         secondcpu = firstcpu;
3136                 currrcvcpu = secondcpu;
3137         }
3138         for (i = 0; msixnum < dd->cspec->num_msix_entries; i++) {
3139                 irq_handler_t handler;
3140                 void *arg;
3141                 u64 val;
3142                 int lsb, reg, sh;
3143
3144                 dd->cspec->msix_entries[msixnum].
3145                         name[sizeof(dd->cspec->msix_entries[msixnum].name) - 1]
3146                         = '\0';
3147                 if (i < ARRAY_SIZE(irq_table)) {
3148                         if (irq_table[i].port) {
3149                                 /* skip if for a non-configured port */
3150                                 if (irq_table[i].port > dd->num_pports)
3151                                         continue;
3152                                 arg = dd->pport + irq_table[i].port - 1;
3153                         } else
3154                                 arg = dd;
3155                         lsb = irq_table[i].lsb;
3156                         handler = irq_table[i].handler;
3157                         snprintf(dd->cspec->msix_entries[msixnum].name,
3158                                 sizeof(dd->cspec->msix_entries[msixnum].name)
3159                                  - 1,
3160                                 QIB_DRV_NAME "%d%s", dd->unit,
3161                                 irq_table[i].name);
3162                 } else {
3163                         unsigned ctxt;
3164
3165                         ctxt = i - ARRAY_SIZE(irq_table);
3166                         /* per krcvq context receive interrupt */
3167                         arg = dd->rcd[ctxt];
3168                         if (!arg)
3169                                 continue;
3170                         if (qib_krcvq01_no_msi && ctxt < 2)
3171                                 continue;
3172